EPILOG Wintersemester 2012

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Ecker Valentin

Valentin Ecker

Masterstudium Technische Informatik
Abstract:

Time Triggered Ethernet is an open platform, which enables the use of COTS Ethernet products together with real-time segments. To facilitate the use of TTEthernet in highly dependable sys- tems, it is important that the platform is properly supported by a modeling language. In order to derive the special needs of a modeling language supporting TTEthernet, a study of existing modeling languages will be done and the inherent properties, constraints and possi- ble applications of TTEthernet will be investigated. Possible use cases, variations and extensions of different modeling languages will be compared and discussed in perspective of the practical use with TTEthernet. Further, a reference implementation will be described to demonstrate the certain benefits of using modeling languages when designing a project incorporating TTEthernet. Required extensions to existing modeling languages will be discussed. Finally, advantages of the new methodologies will be identified. Current state-of-the-art modeling languages for safety critical embedded systems include UML and its extension UML Marte, the SAE Architecture Analysis and Design Language (AADL), SCADE (Esterel Technologies), Simulink (The MathWorks) as well as various combinations. None of the existing modeling languages has been specifically designed for TTEthernet. Ex- isting gaps and missing features in these modeling languages concerning the design of projects with TTEthernet will be identified and evaluated.

Diplomarbeitsposter Geyer Clemens Bernhard

Clemens Bernhard Geyer

Masterstudium Technische Informatik
Abstract:

Nowadays, highly dependable real-time systems are part of many applications in the aerospace and automotive industries. The requirements of real-time applications do not only include the correctness of results, but also the instant of time, when a result is available. In case of a so-called hard real-time system, the whole system may crash if a task does not finish within a given period of time. Thus, knowing worst-case execution times of programs in advance is of utmost importance. Worst-case execution time analysis (WCET analysis) calculates the longest possible duration an application may take to finish. To do so, all external and internal influences have to be considered, for example, processor and memory load, the implemented caching strategy, etc. In order to simplify the analysis of assembler code, Puschner and Burns presented the so-called single-path transformation of algorithms. It is based on the idea to eliminate conditional branches such that just one possible execution path remains which is trivial to analyze. Nevertheless, this is only possible if the processor provides certain kinds of instructions. Within the current thesis, the instruction set of the SPARC V8 processor has been extended so that the analysis of assembler code is simplified. Additional goals included that it should be easy to implement these instructions in hardware and adapt existing code generators to support the instruction set extension. Moreover, the resulting worst-case performance should be improved. In order to evaluate the feasibility of the additional instructions, new code generating passes have been added to an existing compiler and an instruction set simulator has been implemented. Based on the results of numerous simulated benchmark algorithms, the most promising instruction set extensions have been identified and suggested to be part of future processors used in real-time systems.

Diplomarbeitsposter Lampacher Martin

Martin Lampacher

Masterstudium Technische Informatik
Abstract:

Eingebettete Systeme sind ein wesentlicher Bestandteil unseres Alltags: Meist im Verborgenen und ohne jegliche Interaktion vereinfachen sie unseren Tagesablauf. Der enorme Erfog der Unterhaltungselektronik, wie z.B. Smartphones und Tablets, hat eine Vielzahl an Möglichkeiten für eingebettete Systeme eröffnet und ist ein wichtiger Schritt in Richtung des hochstrebenden Ziels des sogenannten “Internets der Dinge”, in welchem auch Objekte eindeutig identifiziert werden können und an sozialen und informationstechnischen Prozessen aktiv teilnehmen. Gateways sind ein wichtiger Baustein in Richtung dieses “Internets der Dinge”, da sie die entscheidende Komponente für die Verbindung von Systemen darstellen. Trotz der Wichtigkeit solcher Gateways gibt es noch immer keine einheitliche Terminologie was ein “Gateway” genau ausmacht und was dessen primäre Charakteristiken sind. Tablets und Smartphones sind ein vielversprechender Ansatz um als Gateway zwischen eingebetteten Systemen und der der Außenwelt zu fungieren: Sie bieten die Möglichkeit einer Internetanbindung und sind gleichzeitig ein einfach nutzbares Interface für Normalbenutzer. Mit dieser Diplomarbeit wird die Terminologie von “Gateways” diskutiert und eine einheitliche, allgemein gültige Definition des Begriffes eingeführt. Des weiteren enthält sie eine Untersuchung über die Verbindungsmöglichkeiten von eingebetteten Systemen zu derzeitigen Tablets und Smartphones. Im Zuge einer Fallstudie eines Gateways zwischen der Diagnoseschnittstelle eines Autos und Smartphones werden die zuvor diskutierten Konzepte praktisch umgesetzt und illustriert.

Arbeitsbereich (vor 2018) Embedded Computing Systems

Diplomarbeitsposter Posch Markus

Markus Posch

Masterstudium Technische Informatik
Abstract:

Wegen der stets steigenden Taktfrequenzen werden SoCs heutzutage in der Regel als GALS-Systeme entworfen. Um die fundamentalen Metastabilitätsprobleme, die durch asynchrone Kommunikation zwischen Clock-Domains auftreten, zu mindern, wird vermehrt auf multi-synchrone GALS gesetzt, bei denen ein gewisses Maß an Synchronität zwischen den lokalen Takten besteht. Durch die stets kleiner werdenden Strukturgrößen und Spannungshübe werden integrierte Schaltungen immer anfälliger für Treffer von ionisierten Partikeln, Übersprechen und elektro-magnetische Interferenzen. Mechanismen zur Toleranz von permanenten Fehlern wie Byzantinisches Agreement und Selbststabilisierung gegen transiente Fehler werden daher auch im Chip-Design immer wichtiger. Die Diplomarbeit ist im Schnittbereich von verteilten fehlertoleranten Algorithmen und VLSI Design angesiedelt. In dieser Arbeit wird die Implementierbarkeit eines neuartigen Algorithmus für Byzantinisch fehlertolerante, selbststabilisierende Taktgenerierung gezeigt, der die zuvor geforderten Eigenschaften für aktuelle multi-synchrone GALS-Systeme erfüllt. Darüber hinaus werden die Ergebnisse der theoretischen Korrektheits- und Performanceanalyse durch eine experimentelle Evaluation der Implementierung validiert. Primärer Gegenstand der Arbeit ist die Implementierung des verteilten Taktgenerierungsalgorithmus und aller dafür erforderlichen Komponenten in digitaler Logik mittels VHDL. Sie basiert auf Mechanismen wie z.B. der Glitchfreien schnellen Kommunikation zwischen asynchronen Funktionsblöcken, stabilen lokalen (Ring-)Oszillatoren, Watchdog-Timern mit festen und zufälligen Timeouts, Threshold-Modulen und der Implementierung von concurrent communicting asynchronous state machines. All diese Mechanismen wurden in einem FPGA-Prototypen implementiert und in einer eigenen Testbench integriert. Die Vorhersagen der existierenden theoretischen Korrektheits- und Performanceanalyse konnten durch mehrere Experimente bestätigt werden.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Akay-Gönenc Ülkühan

Ülkühan Akay-Gönenc

Masterstudium Software Engineering & Internet Computing
Abstract:

Durch die zunehmend starke Vernetzung von Computertechnologie nimmt auch die Bedrohung durch Angriffe auf einzelne Computersysteme und den darauf ablaufenden Programmen stark zu. In vielen Fällen sind Softwarefehler für Sicherheitslücken verantwortlich, die von Angreifern ausgenutzt werden. Somit gewinnt Sicherheit bei der Softwareentwicklung immer mehr an Bedeutung. Um die Sicherheit eines Computerprogrammes zu testen, werden Sicherheitstests in der Softwareindustrie eingesetzt. Das Ziel von Sicherheitstests ist das Auffinden von sicherheitskritischen Schwachstellen in Programmen. Eine spezielle Technik für Sicherheitstest ist Fuzzing, bei dem ungültige, unerwartete oder zufällige Daten als Eingangsparameter an die zu testenden Programme übergeben werden. Für die Erkennung von Anomalien (Fehlern), die durch Fuzzer ausgelöst werden, wird das Zielobjekt überwacht. Im Rahmen dieser Arbeit erfolgt für die Überwachung (Monitoring) von Java Applikationen auf Sicherheitsprobleme eine Proof of Concept Implementierung anhand der Java Virtual Machine. Dazu werden die Datenzugriffe eines Testobjekts ermittelt und protokolliert, die später zur automatischen Erkennung von Sicherheitsfehler eingesetzt werden können.

Diplomarbeitsposter Bryniarski Jan

Jan Bryniarski

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Arbeit setzt sich mit einer praxisbezogenen Umsetzung eines Dokumentenmanagementsystems für eine ausgewählte Mitarbeitergruppe (Turnusärzte) einer Krankenhausabteilung auseinander. Dabei soll als Ziel ein Informationssystem, der sog. Hospital Employee Info Point (HEIP), konzipiert werden. Nach einer theoretischen Auseinandersetzung mit den in einem Krankenhaus stattfindenden Prozessen werden diese vergleichend klassischen IT-Applikationen gegenübergestellt. Dabei zeigt sich, dass die auf den operativen Krankenhaus-Prozess einwirkenden Faktoren komplexer als in einem Unternehmen sind. Zunächst wird eine Gruppierung der im Gesundheitswesen verwendeten IT-basierten Anwendungen/Initiativen vorgenommen. Nach einer Auseinandersetzung mit den IT-nahen Aspekten des Wissensmanagementprozesses werden in diesem Bereich relevante Softwarelösungen dargestellt. Dabei werden Faktoren betrachtet, die den Wissensweitergabeprozess unterstützen, weil diese für eine erfolgreiche Einführung und den Betrieb einer IT-Anwendung wesentlich sind. Zwei vorgestellte Realisierungen aus anderen Branchen zeigen die vor der Implementierung anfallenden Tätigkeiten und den Arbeitsumfang auf. Als eine mögliche Umsetzung des Wissensmanagement-Gedankens wird der Dokumentenmanagement-Prozess erörtert. Diese Form des Wissenstransfers hat sich für die Umsetzung des HEIP als optimal erwiesen, wobei Dokumentenmanagement generell im Krankenhausprozess eine wichtige Rolle spielt. Anschließend werden die bei einer dokumentenmanagement-basierten HEIP-Umsetzung relevanten didaktischen Aspekte (d.h. Schreiben und Lesen) diskutiert – bilden diese doch ein Konterpart zu der in der klassischen IT-Umsetzung angewendeten Datenmodellierung und Auswertung. Im Rahmen der Applikationsentwicklung wird ein Kriterienkatalog zur unterstützenden Entscheidungshilfe bei der Softwareanschaffung erarbeitet. Die abschließende Testinstallation findet in mehreren Varianten (lokal, netzwerkbasiert) statt.

Diplomarbeitsposter Fest Florian Rudolf

Florian Rudolf Fest

Masterstudium Software Engineering & Internet Computing
Abstract:

Die vorliegende Diplomarbeit analysiert und dokumentiert die Softwarearchitektur eines komplexen hochverteilten Videoüberwachungssystems zur semi-automatischen Straßenverkehrsbeobachtung. Die von Center Communication Systems GmbH angebotene VBTC Produktlinie ermöglicht das digitale Erfassen, Übertragen und Anzeigen von Livebildern, die Aufzeichnung und Wiedergabe von Bildmaterial sowie die automatische Detektion potentieller Gefahrensituationen. Die umfassende technische Dokumentation, die im Zuge dieser Diplomarbeit geschaffen wurde, leistet einen essentiellen Beitrag zur weiteren Entwicklung des VBTC-Systems. Die dargebotene Analyse erlaubt eine detaillierte Evaluierung der Softwarearchitektur. Darüber hinaus wird Hard- und Software Experten, die mit dem VBTC System noch nicht vertraut sind, der Einstieg in das System selbst, sowie in das Anwendungsgebiet der videogestützten Verkehrsüberwachung im Allgemeinen erleichtert. Außerdem diente das VBTC System mehrfach als Basis für anwendungsnahe Forschung im Bereich der Bilderkennung sowie verteilter digitaler Videosysteme. Diese Architekturanalyse stellt eine Basis für weitere Forschungsvorhaben dar. Der Architekturdokumentation geht eine detaillierte Umfeldbeschreibung voraus. Es werden konventionelle und digitale Videosysteme zur Überwachung im Allgemeinen sowie deren spezielle Anwendung in der Verkehrsbeobachtung behandelt. Die Architekturdokumentation wurde an das von Kruchten entwickelte “4+1 Sichten Modell” angelegt. Die Dokumentation bietet einen allgemeinen, aber vollständigen Überblick über alle Funktionalitäten des VBTC-Systems. Detailliert wurden vor allem Verteilungsaspekte sowie die Interaktion mit Fremdsystemen behandelt. Das zentrale Ergebnis dieser Diplomarbeit stellt die vorliegende Architekturanalyse dar. Ergebnisse der praktischen Arbeiten im Zuge der Diplomarbeit fanden allerdings auch in den KIRAS Forschungsprojekten iObserve NG und M2DynS sowie in kommerziellen VBTC Projekten Verwendung.

Diplomarbeitsposter Forstner Martin

Martin Forstner

Masterstudium Software Engineering & Internet Computing
Abstract:

'Capture the Flag' (CTF) ist eine Informationskriegsübung, in der die Teilnehmer in Teams gegeneinander antreten und versuchen, ihre eigenen Flaggen zu verteidigen und die gegnerischen Teams zu attackieren, um deren Flaggen zu erobern. Punkte werden vergeben, wenn ein Rechner erfolgreich gehackt oder verteidigt wird. Das Szenario ähnelt dabei einem Informationskrieg, auch als Cyberwar bezeichnet. In dieser Arbeit wird der Einsatz dieser CTF-Contests in der universitären Lehre diskutiert. Im ersten Teil der Arbeit erfolgt eine theoretische Abhandlung, um den Entwicklungsrahmen der Bewerbe zu präsentieren. Hierin wird auch die Lernform in ihrer Theorie erfasst, um im Weiteren tiefgreifender diskutiert zu werden. Der praktische Teil der Studie umfasst einige Fallbeispiele, die zeigen, wie ein effektiver Einsatz von CTF-Contests im Universitätsbetrieb erfolgen könnte. Weiters wird die optimale Vorbereitung auf die Bewältigung der teilweise sehr komplexen Aufgaben des Bewerbes diskutiert. Darüber hinaus wird der ressourcenschonende Einsatz der notwendigen Hard- und Software sowie die Auswertung der Bewerbe besprochen. Abschließend wird ein Leitfaden mit klaren Empfehlungen für die Austragung von CTF-Contests in der universitären Lehre gegeben.

Diplomarbeitsposter Greiner Thomas

Thomas Greiner

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Arbeit befasst sich mit der Entwicklung bzw. Konzipierung eines Lehrbuches zum Thema „Arduino“, welches speziell für den schulischen Alltag und deren Anwendungsgebiete optimiert ist. Die Hauptaugenmerke sind hier ein strukturierter Aufbau für die schulische Verwendung sowie die Möglichkeit zum selbständigen Erarbeiten gewisser Themenbereiche. Arduino ist ein kostengünstig entwickelter Microcontroller, der seinen Ursprung in einer Universität in Italien hat. Diverse Anwendungen, welche von Design- und ElektrotechnikstudentInnen konstruiert wurden, verlangten nach einer Steuerung „von Außen“ und somit einer Sichtbarmachung für die Außenwelt – die elektronische Platine „Arduino“ war die Antwort. Das Arduino-Projekt ist als Open Source verfügbar – Projekte auf Basis des Arduinos können somit ohne Lizenzprobleme verwendet werden. Die verfügbare Dokumentation im Internet und die riesige Anhängerschaft dieses Projektes bieten Hilfestellungen in fast allen auftretenden Fragen, welches ein großer Vorteil der Open Source-Lizenzierung ist. Mit dem Arduino wird es möglich, „Technik greifbar“ zu machen. Der explorative Zugang zur Elektronik bzw. zur Programmierung ist gerade zu perfekt für den schulischen Alltag. Speziell beim Programmieren kann jede kleine Änderung rasch visualisiert werden (z. B. mit Hilfe von LEDs). Das Ergebnis der Arbeit ist ein „Lehrbuch für Arduino“. Die Evaluation des Lehrbuches wurde durch ein Sommerpraktikum an der TU Wien ermöglicht. Hierbei lernten PraktikantInnen mit Hilfe des Lehrbuches die Thematik „Arduino“ kennen, sowie diverse Projekte selbständig umzusetzen.

Diplomarbeitsposter Gruber Dominik

Dominik Gruber

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren ist die Zahl jener Person, die einen leistungsstarken Computer mit Zugang zum Internet in ihrer Hosentasche tragen, rasant gestiegen. Sowohl in Europa als auch in Nordamerika sind mit Stand Mitte 2011 mehr als die Hälfte aller eingesetzten Mobiltelefone Smartphones – Tendenz steigend. Diese Entwicklung eröffnet neue Möglichkeiten für diverse Industrien. Darunter auch für die Gastronomie, der sich diese Arbeit widmet. Es wird die Frage behandelt, in welcher Form die Geschäfts-Transaktionen mit aktuellen technischen Mitteln wie Smartphones durchgeführt werden können. Zu Beginn wurde untersucht, welche technischen Lösungen aus Sicht des Konsumenten bereits existieren. Auf dieser Basis wurde ein Konzept für ein neuartiges System entwickelt, dessen Kern ein Smartphone Client ist. Ein wesentliches Feature ist, dass Benutzer während ihres Aufenthalts in einem Gastronomiebetrieb angebotene Artikel bestellen und bezahlen können. Der Hauptvorteil aus Sicht des Konsumenten ist der Zeitgewinn, da der Ablauf des Besuchs nun maßgeblich selbst gesteuert werden kann und die Abhängigkeit vom Servicepersonal, das nicht jederzeit verfügbar ist, entfällt. Dieses Konzept wurde durch eine soziologische Studie auf Interesse untersucht. Als Kernergebnis wurde ermittelt, dass vier von fünf Personen in zumindest einer Art von Gastronomiebetrieb gerne eine Bestellung über ihr Smartphone tätigen würden und neun von zehn Befragten würden die Möglichkeit nutzen, Essen zur späteren Konsumation im Betrieb vorzubestellen. Daraufhin wurde ein Prototyp des Smartphone Clients für das Betriebssystem iOS entwickelt, der die wesentlichen Features des Konzepts abbildet. Dieser Prototyp wurde einem Usability Test unterzogen. Der Großteil gab im Anschluss an, das Angebot eines Betriebs eher in Anspruch nehmen zu wollen, wenn dieser ein derartiges System einsetzt.

Diplomarbeitsposter Hofer Thomas

Thomas Hofer

Masterstudium Medizinische Informatik
Abstract:

Privatsphäre und Sicherheit sind nicht-funktionale Anforderung in Software Systeme, denen besondere Beachtung geschenkt werden sollte. Die steigende Komplexität von verteilten Systemen führt zu service-orientierten Architekturen mit einer Vielzahl von Akteuren. Diese Entwicklung fordert eine ganzheitliche Lösung mit einer dedizierten Zugriffskontrolle, um die Privatsphäre der Benutzer und die Sicherheit des Systems zu gewährleisten. Um eine Softwarearchitektur zu entwerfen, deren Ziel es ist, die Privatsphäre ihrer Nutzer zu wahren, ist ein fein-granularer Zugriffskontrollmechanismus unumgänglich. Die Datensicherheit kann mittels kryptografischen Methoden, wie zum Beispiel digitale Signaturen oder Verschlüsselung, sichergestellt werden. Diese Diplomarbeit beschreibt eine Softwarearchitektur, die im Umfeld von Smart Grids entwickelt wurde, jedoch in jeder anderen beliebigen Domäne verwendet werden könnte. Die resultierende Architektur vereint eine flexible Zugriffskontrolle mit Sicherheitsaspekten in einer service-orientierten Architektur. Für die Umsetzung einer systemunabhängigen Architektur wird auf etablierte Standards und Technologien gesetzt. Die Zugriffskontrolle wird mit sogenannten Policies umgesetzt, die auf einer Attribut-basierenden Zugriffskontrollsprache aufbauen. Die vorgestellte Architektur wird mittels zweier Ansätze evaluiert. Zuerst wird ein Prototyp entwickelt, der in einem zweiten Schritt mittels Performance Engineering, evaluiert wird. Auf diese Weise wird die Softwarearchitektur und die verwendeten Technologien hinsichtlich Skalierbarkeit untersucht und bewertet. Für die Skalierbarkeitsanalyse wird ein Warteschlangenmodell vorgestellt, das mit den Ergebnissen des Benchmarks verglichen wird. Die hier vorgestellte Architektur wurde im Rahmen des Forschungsprojektes Smart Web Grid (gefördert aus Mitteln des Klima- und Energiefonds im Rahmen des Programms Neue Energien 2020) entwickelt, ist jedoch als unabhängig und eigenständig zu betrachten.

Diplomarbeitsposter Maier Martin

Martin Maier

Masterstudium Business Informatics
Abstract:

Since the invention of the telephone about 150 years ago, communication systems have been subject to continuous improvement and form an important factor in modern life. Current development favors Voice over IP based systems, which utilize regular Internet infrastructure and their advantages. Also the ongoing evolvement of software development enables open source products to mature and to form a viable alternative to other software design approaches. The designers of open source private branch exchange (PBX) Asterisk pursue utilizing open source software for the development of a Voice over IP systems. As it combines advantages of both, open source software and Voice over IP systems, a promising future of Asterisk is guaranteed. Although great benefit can be achieved, the openness of and integration into regular Internet infrastructure evokes doubts about the security of the system. This thesis presents an approach to point out potential security threats of an open source PBX system, to analyize their system vulnerabilities and to estimate the risk of such vulnerabilities getting exposed. For an Asterisk based reference system, mitigation strategies for identified risk are presented.

Diplomarbeitsposter Mauser Christian

Christian Mauser

Masterstudium Technische Informatik
Abstract:

In der heutigen Zeit basieren fast alle modernen Automationsnetze auf Ethernet. Immer mehr Geräte kommunizieren über ein gemeinsames Medium, wodurch die Wahrscheinlichkeit von Beeinflussungen zwischen einzelnen Subsystemen steigt. Der Einsatz von Office-IT und die oft vorhandene Internetanbindung machen Automationsnetze weiters anfällig für bekannte Bedrohungen, wie z.B. Hacker oder Malware. Deshalb ist es für System-Entwickler und Netzwerk-Administratoren heute wichtiger denn je, gegen ungewollte Einflüsse auf die einzelnen Subsysteme gewappnet zu sein, v.a. wenn es sich dabei um bösartige, beabsichtigte Einflüsse von außen handelt. Um genaue Informationen über den Datenverkehr in einem modernen Automationsnetz zu sammeln, wurde im Rahmen der Diplomarbeit der Fernzugriff auf eine in Betrieb befindliche Papiermaschine ermöglicht. Im Anschluss an eine Analyse des Datenverkehrs werden zwei Konzepte präsentiert, die verwendet werden können, um die Zuverlässigkeit und Sicherheit (im Sinne von Security) eines Automationsnetzes zu erhöhen. Dabei ist kein Einfluss auf die Endgeräte im Netzwerk notwendig, sondern nur auf das Netzwerk selbst bzw. genauer gesagt auf die Firewall(s). Das erste Konzept ist eine verteilte Firewall mit zentraler Definition der Policy. Durch die Verteilung wird eine strenge Eingrenzung von Fehlern erreicht, was letztendlich zu erhöhter Zuverlässigkeit und Sicherheit des Netzwerks führt. Außerdem wird eine Paket-Filter-Methode diskutiert, die ungewollten Datenverkehr zuverlässiger detektiert als das übliche port-basierte Filtern, das z.B. beim weit verbreiteten OPC-Protokoll bereits an seine Grenzen stößt. Die beiden Konzepte werden mit Ansätzen verglichen, die üblicherweise in der Industrie Anwendung finden. Dies geschieht formal mit einem entsprechenden Fehlermodell und wird mittels Simulation überprüft. Abschließend belegt eine Prototyp-Implementierung die Realisierbarkeit der vorgestellten Konzepte.

Diplomarbeitsposter Schönberger Martin

Martin Schönberger

Masterstudium Software Engineering & Internet Computing
Abstract:

Open source software typically is developed in distributed communities, which employ specialized means of management and cooperation. The purpose of this research is to study and define a modern open source development process by identifying elements shared by open source projects and determining aspects in which they differ. Furthermore, the thesis investigates how open source development relates to structured processes on one hand, and agile methods on the other. Essential elements of the open source process are identified and compared with those of four process models which are widely used in proprietary development, namely the RUP, PMBoK, Scrum and XP. In an empirical case study grounded on qualitative interviews, developers of three active open source projects provide in-depth information on the lifecycle and practices used in the projects’ development. This data is used to show how open source communities have created a distinct way of development, which is based on a shared culture and is uniquely adapted to its environment of distributed collaboration, voluntary contribution and developer participation. It is shown how open source development distinguishes itself from other approaches of creating software by a number of specific characteristics. Suggestions are offered how to improve both open source development processes and proprietary forms of development.

Diplomarbeitsposter Simon Sebastian

Sebastian Simon

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren ist eine anhaltende Entwicklung zu beobachten, dass immer mehr sensible Daten über Webservices im Internet verarbeitet werden. In diesen sicherheitskritischen Umgebungen müssen Schutzziele wie Vertraulichkeit, Integrität oder Nachvollziehbarkeit garantiert werden können. XML-Security ist ein XML-basierter Standard, der es ermöglicht diese Sicherheitsaspekte sicherzustellen. Da auch Webservices in der Regel XML-basiert sind, wird dieser Standard häufig eingesetzt. Neben dem Einsatz von geeigneten Sicherheitsstandards ist im Bereich von sicherheitskritischen Umgebungen auch das Auffinden und Schließen von Sicherheitslücken ein zentraler Aspekt um Datensicherheit garantieren zu können. Umfassendes Testen dieser Anwendungen ist daher unerlässlich. Im Rahmen dieser Arbeit werden verschiedene Verfahren vorgestellt, um Schwächen in Designdokumenten, im Programmcode oder in der Konfiguration von Applikationen zu finden. Dabei werden sowohl statische als auch dynamische Verfahren, Whitebox- sowie Blackbox-Verfahren vorgestellt, die jeweils Vor- und Nachteil im Bezug auf das Auffinden gewisser Klassen von Software-Fehlern aufweisen. Als Schwerpunkt der vorliegenden Arbeit werden sicherheitskritischer Anwendungen mittels Fuzzing getestet. Dazu wird ein bestehendes Fuzzing-Framework um Funktionen für XML-Security erweitert und an einer realen Applikation angewandt. Abschließend wird eine Evaluierung der prototypischen Implementierung durchgeführt, die die Anwendbarkeit der XML-Erweiterung an einer realen Applikation bestätigt.

Diplomarbeitsposter Wieser Phillip

Phillip Wieser

Masterstudium Business Informatics
Abstract:

Software is commonly tested before release in order to be able to meet certain quality standards of the final product. Test automation promises to lower the number of repetitious tasks for testers and reduce expenses for testing. However, the introduction of automated testing is not always beneficial. Some dangers are increased one-time costs to implement the automation framework at the beginning, and that test automation is thought to be able to replace all manual tasks. Test case generation is one of the possibilities to use automation in a software project in order to potentially reduce costs and improve quality. A solution that generates test cases and gives stakeholders an estimation of software quality could be used to improve the testing process as well as existing test cases. Within the scope of a case study, a proof-of-concept prototype software to generate test data was developed. The generated test cases were used for testing multiple parts of a software that were written in various programming languages. The comparison of both sets of test cases showed that some existing test cases could not be replaced by their automated counterparts, but also that the generated test cases tested new parts of the software and can be executed much more often. It has been found that the generated test cases can be used to estimate many software quality factors like accuracy, stability and fault tolerance. From the results it has been deducted that software quality is composed of numerous factors, some of which are hard to test for only by generating test cases. The main strengths of auto-mated test case generation lie in testing for correctness and robustness. For quality factors like installability, additional research may be conducted in order to extend the approach and to be able to assess even more quality factors. In general, the solution of generating test cases seems to be most beneficial for complex interfaces with a large number of methods and parameters.

Arbeitsbereich (vor 2018) Computer Vision

Diplomarbeitsposter Ganglberger Florian

Florian Ganglberger

Masterstudium Medizinische Informatik
Abstract:

The behavior of drosophila can be linked to the activity of a set of neurons. These neurons express different genes whereby their manipulation and effects on neurons are subjects of current research. The automatic identification of similar neurons in different brains give biologists an opportunity to analyze a set of brain volumes without manual annotation. In this thesis, a similarity measure was developed to compare small, segmented neuronal structures. This measure can be used to build mappings of fly brains, based on the similarity in sub-regions. The mapping is performed by a non-linear dimension reduction method called Diffusionmaps. Fly brain images have varying quality regarding noise and location stability, so this method is well suited for use due to its robustness. The resulting mapping can be applied to provide biologists with an overview of the data and visualize differences and similarities between mutations. Additionally, a method for identifying similar regions of brains with different mutations is introduced. For this, a multi-modal genetic algorithm is applied to find brain areas which maximize the similarity measure between flies. In conclusion, the methods perform non-linear mapping of fly brain regions, based on similarity measures, which compare local appearance in confocal microscopy images. The maps reflect groups of flies that exhibit similar structure in local brain areas. On the other hand, also regions in fly brains can be detected that have structures regarding to specific genetic variations. In addition, the similarity measure can be used for image retrieval.

Diplomarbeitsposter Kavelar Albert

Albert Kavelar

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit stellt einen neue, vollautomatische und bildbasierte Methode zur Erkennung von Legenden antiker Münzen der Römischen Republik. Herkömmliche Texterkennungsmethoden setzen eine horizontale Ausrichtung des im Bild befindlichen Textes voraus und setzen Binarisierungsverfahren zum Segmentieren des Textes vom Hintergrund ein. Da Legenden in Münzbildern beliebig orientiert sein können und die Farbe der Legende jener der Münze an sich ident ist, scheitern diese Methoden. Deshalb setzt die hier präsentierte Technik auf Objekt- und Mustererkennungsmethoden und nützt lokale Bildmerkmale zur Beschreibung der Buchstaben im Bild. Zur Legendenerkennung werden in Bildregionen von hohem Informationsgehalt für jeden zweiten Pixel in horizontaler und vertikaler Richtung SIFT-Deskriptoren fixer Größe berechnet. Für diese Punkte wird mit einem Klassifikator, im Speziellen mit Support Vector Machines (SVM), die Wahrscheinlichkeit für das Auftreten unterschiedlicher Buchstaben ermittelt. Die den Punkten zugeordneten Wahrscheinlichkeiten werden mittels einer pictorial structures (bildhafte Strukturen) genannten Technik zu Wörtern eines vordefinierten Lexikons kombiniert. Jenes Wort, das dabei die niedrigsten Kosten verursacht, wird im Bild erkannt. Da im Voraus keine Annahmen über die Orientierung der im Bild dargestellten Legenden getroffen werden kann, ist es wichtig, rotationsinvariante Bildmerkmale zur Buchstabenerkennung zu verwenden. Bei den Experimenten stellte sich heraus, dass der Einsatz rotationsinvarianter Bildmerkmale die Erkennungsrate senkt. Um diesen Umstand zu kompensieren, werden aufgrund rotationsinvarianter Bildmerkmale gefundene Worthypothesen in einem nachfolgenden Schritt mit Bildmerkmalen der Worthypothese entsprechender fixer Orientierung verifiziert. In den durchgeführten Experimenten konnte nachgewiesen werden, dass dieser nachgelagerte Schritt die Erkennungsrate signifikant verbessert.

Diplomarbeitsposter Lang Werner

Werner Lang

Masterstudium Medizinische Informatik
Abstract:

Manual segmentation of medical image data is tedious and time intensive - multiple segmentations quickly become prohibitively expensive (especially on 3D data). Observing this, we developed an interactive, incremental annotation approach for 2D/3D medical image data, focusing on simultaneous, weakly-supervised, classification based, multi-patient segmentations. We use an initial over-segmentation method, so-called Superpixels, to cluster spatially-coherent, homogeneous structures while retaining edge information. User-guided brush strokes mark representatives for each label class within the image (e.g. lung, heart, background). The retrieved structures are learned by a random forest classifier. The resulting probabilities for a superpixel to belong to a specific class are combined with local descriptors for edges between superpixels and are optimized by an MRF solver, giving a first estimation of desired appearances in all multi-patient views. Successive interactions refine the annotation, making maximal use of each user input. The resulting framework provides a multi-patient view, allowing to interact with all individual annotation simultaneously. We evaluate the segmentation results on 25 left-hand radiographs, 14 CT thorax slices and 6 hand CT volumes. The proposed framework yields a >90% correct segmentation of multi-patient data sets by the annotation of 17.8% - 30.3% of all computed image Superpixels. Using over-segmentation trough Superpixels combined with local descriptors make whole image labeling problems in multi-patient segmentations tractable. Multi-patient annotation time is greatly reduced, but contour accuracy is increased nearly proportional to the number of Superpixels.

Diplomarbeitsposter Nebehay Georg

Georg Nebehay

Masterstudium Medizinische Informatik
Abstract:

Aktuelle Objektverfolgungsmethoden am Stand der Technik verwenden adaptives Tracking-By-Detection, was bedeutet, dass ein Detektor die Position eines Objekts ermittelt und gleichzeitig seine Parameter an die Erscheinung des Objekts anpasst. Während solche Methoden in Fällen funktionieren, in denen das Objekt nicht vom Schauplatz verschwindet, neigen sie dazu, bei Verdeckungen fehlzuschlagen. In dieser Arbeit bauen wir auf einem neuen Ansatz auf, der Tracking-Learning-Detection (TLD) genannt wird und der dieses Problem bewältigt. In TLD-Methoden wird der Detektor mit Beispielen trainiert, die auf der Trajektorie eines Trackers liegen, der unabhängig vom Detektor ist. Durch die Entkopplung von Objektverfolgung und Objektdetektion erreichen wir eine große Robustheit und übertreffen existierende adaptive Tracking-By-Detection-Methoden. Wir zeigen, dass durch den Einsatz von einfachen Features zur Objekterkennung und mit der Verwendung eines kaskadierten Ansatzes eine beträchtliche Reduktion der Rechenzeit erzielt wird. Wir evaluieren unseren Ansatz sowohl auf existierenden Standarddatensätzen in einer Kamera als auch auf neu aufgenommenen Sequenzen in mehreren Kameras.

Diplomarbeitsposter Perl Johannes

Johannes Perl

Masterstudium Medizinische Informatik
Abstract:

Das bildgebende Verfahren der funktionellen Magnetresonanztomographie (fMRI) erlaubt es physiologische Prozesse des Körperinneren darzustellen. Durch die Messung von Schwankungen der Blutoxygenierung verschiedener Gehirnregionen ist weiters eine indirekte Bestimmung von neuronaler Aktivität möglich. Die Detektion von Hirnarealen mit neuronaler Aktivität erlaubt es kognitive Prozesse zu untersuchen und Lokalisation, Ausmaß und Zusammenhang der Regionen zu bestimmen. FMRI ist daher ein sinnvolles Werkzeug, das die Untersuchung von funktionellen Abläufen im Gehirn ermöglicht. In dieser Arbeit wird ein Ansatz vorgestellt, der komplexe Zusammenhänge zwischen räumlich entfernten Gehirnregionen erkennt. Mit Hilfe von Random Forest (RF), einem Klassifikator der aus einzelnen Entscheidungsbäumen besteht, werden die fMRI Daten analysiert. Die Informationen die sich in einem trainierten RF befinden, werden verwendet um aktivierte Gehirnareale, sowie deren Zusammenhang zu extrahieren. Durch die Verwendung von RF werden die hochdimensionalen Daten effizient verarbeitet und es ist kein aufwändiges Optimieren von Parametern notwendig. Außerdem werden durch RF multivariate Aktivierungen erfasst, was zu einer gesteigerten Empfindlichkeit gegenüber traditionell univariaten Ansätzen führt. Die vorgestellte Methode ist datenbasiert, weshalb kein Vorwissen aus dem Gebiet der Neurowissenschaft erforderlich ist. Das entwickelte System wurde einerseits mit synthetischen Daten evaluiert, andererseits wurden auch klinische fMRI Daten von vier Probanden verwendet. Die klinischen Daten wurden während verschiedener Sprachaufgaben aufgenommen. Die Resultate zeigen, dass RF ein geeignetes Werkzeug für die Analyse von funktionellen Gehirndaten darstellt. Weiters wurde gezeigt, dass komplexe Zusammenhänge zwischen verschiedenen Gehirnarealen entdeckt wurden. Diese funktionellen Konnektivitäten sind als orthogonal zu bisher verwendeten Methoden zu sehen, welche auf Korrelation basieren.

Diplomarbeitsposter Zima Matthias

Matthias Zima

Masterstudium Medizinische Informatik
Abstract:

In this thesis it is evaluated, if the AE3 data generated by the UCOS4 sensor can be used for hand/arm gesture recognition. The results from this are a first step for the future development of an embedded gesture recognition device based on the UCOS sensor. The UCOS sensor is a novel biologically inspired 3D sensing device developed by AIT5 that senses scene dynamics and exclusively transmits edge information of moving objects while hiding static areas. The so gathered pixel information data are communicated via a sparse, asynchronous protocol called address-event-representation. Trajectories of moving objects like hands/arms are also encoded within this address-event data. A specially modified firmware for gesture recognition enables filtering these trajectories out of the address-event stream. Based on this data features are calculated which are used to classify the gestures using different machine learning methods, the Hidden Markov Model and the Decision Tree. Both classification methods are trained with different sized sets of gestures containing ten, eight and four gestures. From each gesture at least 52 samples are used to evaluate the gesture recognition. The results of the Hidden Markov Model and the Decision Tree are compared with each other.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Hammerer Tobias

Tobias Hammerer

Masterstudium Software Engineering & Internet Computing
Abstract:

Unter Task-Based Crowdsourcing versteht man die Auslagerung einer Aufgabe an eine Menge von unbekannten Akteuren (Crowd) unter Zuhilfenahme von Webtechnologien. Die Crowd bearbeitet die Aufgabe und stellt ein Ergebnis bereit. Plattformen, die dieses Service anbieten sehen sich mit verschiedenen Herausforderungen konfrontiert, insbesondere die Berücksichtigung von Qualitätsunterschieden der bearbeiteten Tasks sowie die Erzielung des für alle Beteiltigten höchst möglichen Nutzens durch eine angemessene Aufgabenverteilung. Auktionen stellen hierbei einen interessanten Ansatz dar, der in der Fachliteratur in diesem Zusammenhang bisher noch nicht eingehend analysiert wurde. Das Testen und Evaluieren neuer Ansätze kann als eine weitere Herausforderung identifiziert werden, zumal der Zugang zu “echten” Daten oftmals mit Schwierigkeiten verbunden ist. In dieser Masterarbeit wird zunächst ein hochgradig konfigurierbares, modulares und erweiterbares Simulations-Framework vorgestellt, welches dem Ansatz der Agenten basierten Modellierung folgt. Das Framework unterstützt dabei aktuelle Qualitätsmanagement-Methoden (basierend auf einem “Skill Profiling” Modul) und verschiedene Auktionsmechanismen (zur Verteilung der Aufgaben). Anschließend wird die Eignung verschiedener Auktionsmechanismen für diverse Crowdsourcing-Szenarien untersucht. Darüber hinaus werden drei Standard- Auftragsauktionen (Reverse Auctions) und eine Double Auction einem Vergleich unterzogen. In Hinblick auf die Auswertung von Qualität, Taskverteilung und Profit erzielt die Reversed Sealed-Bid Auktion in Summe die besten Resultate. Im Vergleich zu den Standard Auktionsmechanismen, liefert die Continous Double Auction in den meisten Kategorien etwas bessere Ergebnisse. Zudem wurden drei verschiedene Qualitätsmanagement-Methoden einer Analyse unterzogen. Dabei kann festgehalten werden, dass die Verwendung einer Auktion, die die Aufgaben den qualifiziertesten Usern zuteilt, die höchsten Qualitätswerte erzielt.

Diplomarbeitsposter Kimmel Florian

Florian Kimmel

Masterstudium Software Engineering & Internet Computing
Abstract:

We connect with people in many different ways. We write emails, post messages on Facebook, or write text messages. This information can be used to support our every day life. Context-Aware Systems collect such type of context data to enable decisions making about the current situa- tion. This diploma thesis focuses on the ”Design and Implementation of an Interaction-centric Context Store”. The work also evaluates the flexibility of the design by modelling the same scenario in two different ways. The underlying implementation exploits OSGi and RESTful WS technology.

Diplomarbeitsposter Leonhartsberger-Schrott Martin

Martin Leonhartsberger-Schrott

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren erlangte der Quadcopter – eine Drone die ihren Flug autonom mithilfe vier Rotoren stabilisiert – einen immer höheren Bekanntheitsgrad im militärischen Bereich, aber auch in der Modellbauszene. Durch neuartige Internet-basierende technologische Entwicklungen können Quadcopter zunehmend unabhängig agieren. Diese Arbeit beschreibt die Idee eines service copter, d.h. eines Quadcopters dessen Interaktion mit der Außenwelt über eine Service-basierte Schnittstelle abgewickelt wird. Diese Vorgehensweise erlaubt eine Einbettung in serviceorientierte Architekturen. Ermöglicht wird diese Art der Kommunikation durch den Einsatz eines in den Quadcopter aufnehmbaren Smartphones. Auf diesem Mobiltelefon ist eigens entwickelte Software dafür verantwortlich die simple sensorenbasierende Plattform in eine serviceorienterte Drone zu verwandeln. Der erste Teil dieser Arbeit detailliert das Konzept der service copter. Es wird ausgeführt wie sich ein derartiges Fluggerät in serviceorientierte Architekturen einfügen kann und spezifiert die Anforderungen und Komponenten eines solchen Systems. Außerdem werden zwei konkrete Anwendungsszenarien präsentiert. Der zweite Teil der Arbeit erläutert Design und Konstruktion eines service copter-Prototypen. Es wird die verwendete Hardware beschrieben und wie die einzelnen Teile zusammenarbeiten, zusätzlich werden Implementierungsdetails der entwickelten Software erklärt. Abschließend wird der Prototyp einer Evaluation bezüglich Einsetzbarkeit für ein Test-Szenario unterzogen und die Ergebnisse dieser Arbeit werden diskutiert.

Diplomarbeitsposter Nastic Stefan

Stefan Nastic

Masterstudium Software Engineering & Internet Computing
Abstract:

The problem of data quality is inherent to various information systems. Due to abundance of electronic data, effects of data quality are becoming more and more critical. Further problems arise with emerging systems such as ubiquitous computing systems that pose additional requirements regarding the quality of data. The application field of emerging large-scale pervasive and ubiquitous computing systems ranges over multiple domains e.g. healthcare, smart grids, civil service, smart buildings and smart cities. Due to complexity and diversity of run-time scenarios pervasive systems are deployed in, observing and understanding the environment become very difficult. Additionally, large number of diverse data sources, usually utilized opportunistically, only further complicate the matter. On top of this, diversity and geographical distribution of data sources , near real-time data processing and delivery requirements together with a lack of common schema pose additional challenges on data quality management. Therefore, it becomes crucial to be able to acquire quality information which can be translated into meaningful insights. In this work we set a corner-stone for development of comprehensive and general data quality framework for large-scale ubiquitous computing systems. Most important concepts of the framework are data quality measurement and assessment mechanism, together with quality driven data source selection and continuous quality assurance mechanism. We provide a comprehensive analysis of representation, sensing, evaluation and run-time usage of data quality information in pervasive and ubiquitous systems. Finally, the developed data quality framework is evaluated on the real-life data gathered from Cosm IoT platform. In the experiments it is shown that by employing the proposed approaches we are able to account for inherently unstable and highly dynamic nature of data sources in ubiquitous computing systems.

Diplomarbeitsposter Scharf Andreas

Andreas Scharf

Masterstudium Medizinische Informatik
Abstract:

Soziale Netzwerke haben heutzutage Dimensionen jenseits der hundert Millionen Benutzer erreicht. Diese große Datenmenge macht sie interessant für wissenschaftliche Untersuchungen und die Entwicklung von spezifischen Programmen welche sie untersuchen. Im großen Kontrast zu den unzähligen Entwicklungen und den großen Datenmengen auf denen diese arbeiten sollen stehen Testdaten zur Evaluierung der Integrität nur äußerst beschränkt zur Verfügung. Obwohl es grundsätzlich möglich ist Testdaten direkt aus den sozialen Netzwerken auszulesen steht dem ein hoher zeitlicher Aufwand und die Problematik der Anonymisierung von personenbezogenen Daten entgegen welche den genannten Mangel an verfügbaren Testdaten begründen. In der vorliegenden Master-Arbeit stellen wir ein Programm vor welches das Forest Fire Model zur Grafengenerierung nutzt um künstliche Netzwerke in beliebiger Größe und Anzahl zu erstellen, welche ähnliche Strukturen wie das Twitter Netzwerk aufweisen. Zusammen mit einer integrierten Simulation von Kommunikationsvorgängen bietet dieses Werkzeug die Möglichkeit einer realitätsgetreuen Nachbildung der Vorgänge in diesem sozialen Netzwerk und damit eine Grundlage für ausgiebige Testszenarios. Die Ausgabedaten des Programms stellen eine adäquate Approximation eines realen sozialen Netzwerks dar, beinhalten dabei aber keinerlei personenbezogener Daten. Durch den Einsatz des TwitterTestbeds als Quelle für anonyme Testdaten kann der Entwicklungsprozess beschleunigt und die Qualität der Ergebnisse stabilisiert werden. Die Kosten und der Zeitaufwand sollten auf Grund des Wegfalls der beschriebenen Problematiken spürbar reduziert werden.

Diplomarbeitsposter Stary Karl

Karl Stary

Masterstudium Software Engineering & Internet Computing
Abstract:

Internetbasierte Frage und Antwort Gemeinschaften haben sich innerhalb der letzten zehn Jahre zu sehr populären Plattformen entwickelt. Heute gibt es riesige Gemeinschaften, in denen täglich mehrere Zehntausende Fragen gestellt werden. Das Ziel dieser Arbeit ist es, solche Gemeinschaften zu verbessern, indem neue Fragen automatisch zu passenden Mitgliedern weitergeleitet werden. Weites soll es nicht notwendig sein, dass Benutzer ihre Fragen kategorisieren müssen. Um diese Ziele zu erreichen wird ein System vorgestellt, welches verschiedene Komponenten enthält, mittels welcher die Wahrscheinlichkeit geschätzt wird, dass ein spezieller Benutzer solch einer Gemeinschaft fähig ist, eine spezielle Frage zu beantworten. Die drei Kern-Komponenten sind Wissen, Autorität, und Aktivität. Sie werden verwendet, um die Richtigkeit, die Vertrauenswürdigkeit und die Antwortzeit von potentiellen zukünftigen Antworten eines Benutzers zu schätzen. Konkrete Realisierungen der Wissens-Komponente basieren auf dem Vektor-Raum Modell (VRM) und auf dem Frage-Wahrscheinlichkeits-Sprachen-Modell (Query Likelihood Language Model). VRM verwendet Term Frequenz - Inverse Dokumenten Frequenz (TF-IDF), wobei IDF auf der Benutzersammlung basiert. Nach bestem Wissen ist das ein neuartiger Ansatz, da in der Literatur IDF immer mittels Fragensammlung ermittelt wird. Die Realisierungen der Autoritätskomponente sind zum Beispiel InDegree und PageRank. Benutzer-Aktivität ist mittels neuartigem Aktivitätsfilter berücksichtigt, welcher, nach bestem Wissen und Gewissen, noch bei keinen ähnlichen Arbeiten verwendet wurde. Dieser entfernt alle inaktiven Benutzer vor der eigentlichen Berechnung der Rangliste von potentiellen Antwortenden. Die Implementierung des Systems ist für die Verwendung von modernen Multi-Kern Prozessoren ausgelegt. Basierend auf einem vom Yahoo! Webscope Programm bereitgestellten Datensatz werden verschiedene Varianten der Reihungsberechnung untersucht und die passendste ermittelt.

Diplomarbeitsposter Trenkwalder Martin

Martin Trenkwalder

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit befasst sich mit Mechanismen und Methoden für die Generierung und Klassifizierung von User Generated Content. Basierend auf einer Analyse existenter Konzepten wie dem Semantic Web, Ontologien, Topic Maps und Tags wurde der Tagging Prozess detailliert untersucht. In diesem Zusammenhang wurden existente Systeme, wie Evernote, Delicious, Fickr, Picasa, Zootool und Mister Wong verglichen und deren Stärken und Schwächen aufgezeigt. Ausgehend von der Analyse wurde ein Software Prototyp (Web Content Maps), basierend auf Folksonomies, entwickelt. Folksonomy, eine Sammlung von mehreren Schlagwörtern, wird im Zuge der Arbeit in einem eigenen Kapitel genauer betrachtet um somit die unterschiedlichen Arten von Folksonomies, Broad und Narrow Folksonomy, zu erklären. Dabei werden Vor- und Nachteile aufgezeigt. Zusätzlich wir das Phänomen der Long Tail Kurve bei der Vergabe von Tags in der Broad Folksonomy angeschnitten. Zur Wiederauffindung der getaggten Ressourcen wird der FolkRank-Algorithmus, ein auf Folksonomies angepasster PageRank-Algorithmus, analysiert. Zur besseren Verständnis des Vorganges eines Nutzer bei einer Verschlagwortung, wird der Tagging-Prozess anhand eines Beispiels genauer beschrieben, vom Gedanken sammeln bis zum Hinzufügen des Schlagwortes. Zudem wird dabei auf die unterschiedlichen Motivationen der Nutzer eingegangen. Der oben genannte Prototyp beinhaltet ein Tagging-System und ein Information Retrieval Tool. Für den Taggingvorgang wurde eine Google Chrome Extension erstellt. Das Wiederauffinden der Ressourcen in der Folksonomy erfolgt durch eine mit PHP entwickelte dynamische Webseite. In dem Ausblick werden neue Lösungsansätze angeführt, die versuchen, die Nachteile von Folksnomies zu beseitigen.

Diplomarbeitsposter Vallaster Stefan

Stefan Vallaster

Masterstudium Software Engineering & Internet Computing
Abstract:

Aktuelle Crowdsourcing Systeme unterstützen nur ein sehr einfaches Arbeitsmodell. Das Interesse von Unternehmen auf der ganzen Welt, die höchst komplexe Arbeit mittels Crowdsourcing auslagern möchten, steigt dabei kontinuierlich. Deshalb ist es notwendig Konzepte zu entwickeln um die Integration komplexer Arbeit in Crowdsourcing Systeme zu ermöglichen. Dabei birgt die Integration von komplexer Arbeit eine Reihe von Herausforderungen, da komplexe Aufgabenstellungen im Allgemeinen nicht in Arbeitspakete teilbar sind, welche von einzelnen Personen unabhängig voneinander abgearbeitet werden können. Wir nutzen verschiedene Formen der Kollaboration um die Integration von komplexer Arbeit in Crowdsourcing Systeme zu ermöglichen. Wir modellieren komplexe Arbeit als sogenannte Composite Tasks. Ein Composite Task besteht aus einer Reihe von Teilaufgaben, welche Abhängigkeiten untereinander haben können. Diese Abhängigkeiten zeigen das Maß an Zusammenarbeit, welches nötig ist, um voneinander abhängige Teilaufgaben zu lösen. Ergänzend stellen wir ein Modell für ein Soziales Kollaborationsnetzwerk vor. Alle Arbeiter sind Teil dieses Netzwerks. Die Beziehungen zwischen Arbeitern im sozialen Netzwerk zeigen dabei, wie gut diese miteinander zusammenarbeiten können. Darauf aufbauend führen wir zwei Team-Strukturen, nämlich statische und dynamische Teams, ein. Unsere vorgestellten Konzepte werden in eine Simulationsumgebung für Crowdsourcing implementiert um eine Evaluierung zu ermöglichen. Wir führen eine Reihe von Auswertungen durch um Vor- und Nachteile der beiden Teamstrukturen aufzuzeigen. Die Ergebnisse der Evaluierung zeigen signifikante Unterschiede in der Anzahl der erfolgreich abgearbeiteten Aufgaben und der Qualität der erbrachten Arbeit in Abhängigkeit der Teamstruktur.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Bliem Bernhard

Bernhard Bliem

Masterstudium Computational Intelligence
Abstract:

Für große Instanzen sind viele praktisch relevante Probleme nicht effizient lösbar. Oftmals werden sie jedoch bewältigbar, wenn die Eingaben auf solche Instanzen beschränkt werden, die einen beschränkten Parameter aufweisen. Besonders die Baumweite hat sich als attraktiver Parameter erwiesen, da sie auf viele unterschiedliche Probleme anwendbar ist. Beschränkte Baumweite kann häufig durch dynamische Programmierung auf einer Baumzerlegung der ursprünglichen Instanz ausgenutzt werden. Bisher war es jedoch üblicherweise äußerst aufwendig, solche Algorithmen zu implementieren, was auf den Mangel an unterstützenden Werkzeugen, die eine angemessene Sprache zur einfachen Spezifizierung bereitstellen, zurückzuführen ist. In dieser Diplomarbeit stellen wir deshalb eine Methode namens Decompose, Guess & Check vor, die es ermöglicht, solche Algorithmen deklarativ zu spezifizieren. Dafür verwenden wir Antwortmengenprogrammierung – einen logischen Formalismus, der ein Programmierparadigma namens Guess & Check unterstützt und es erlaubt, schwierige Probleme prägnant auszudrücken. Dadurch profitiert Decompose, Guess & Check von effizienten Solvern sowie von einer reichhaltigen Sprache, die leicht lesbaren und wartbaren Code ermöglicht. Wir führen eine Analyse des Ansatzes durch, die zeigt, dass dieser mächtig genug ist, um eine große Klasse an Problemen auf Instanzen beschränkter Baumweite effizient zu lösen. Weiters stellen wir ein Softwaregerüst namens D-FLAT vor, das diese Methode bereitstellt. Schließlich wenden wir D-FLAT auf eine Auswahl verschiedener Probleme an, um die Vielseitigkeit des Ansatzes zu illustrieren. Da Instanzen in der Praxis oft kleine Baumweite aufweisen, besitzt unser Ansatz hohe praktische Relevanz. Für viele schwierige Probleme ist Decompose, Guess & Check daher ein vielversprechender Kandidat, um Instanzen zu lösen, die für bestehende Systeme der Antwortmengenprogrammierung bisher außer Reichweite lagen.

Diplomarbeitsposter Ellmauthaler Stefan

Stefan Ellmauthaler

Masterstudium Computational Intelligence
Abstract:

Over the last two decades the interest for Abstract Argumentation steadily raised in the field of Artificial Intelligence. The concept of Dung’s Argumentation Frameworks (AFs), where arguments and their relations are represented in a directed graph-structure, is a well-known, simple, and powerful concept. This framework is used to find acceptable sets of arguments, which have specific properties (e.g. being conflict free), defined by several semantics. Recently Abstract Dialectical Frameworks (ADFs) were introduced, a generalization of Dung’s approach, to overcome the limitation of attack-relations being the only type of native relations. To reach this goal, in addition to the relations, total functions are used to decide the acceptance of an argument. These functions are so called acceptance conditions. Due to the high expressiveness of this newly proposed theory, some semantics were only generalized for the restricted bipolar ADFs yet. This work will give an exhaustive overview on ADFs. The restriction to bipolar ADFs for some of the semantics is not desired, so we try to develop a solution to gain the generalized stable model semantics. This semantics is particularly important because the other semantics which are restricted to bipolar ADFs, depend on stable models. We will concentrate mainly on the introduction of the alternative representation of propositional-formula ADFs (pForm-ADFs). Based on the new representation a transformation from ADFs to pForm-ADFs, together with a generalization of the stable model semantics will be presented. In addition some properties between semantics will be investigated and an overview of complexity results, enriched with new ones is given. Currently there is no software system available to compute semantics for ADFs. So we also present an Answer Set Programming (ASP) based implementation to solve these highly complex computations. We will also present preliminary empirical experiments.

Diplomarbeitsposter Lehrbaum Andreas

Andreas Lehrbaum

Masterstudium Computational Intelligence
Abstract:

Hyperheuristiken bilden ein aufstrebendes Forschungsgebiet für Suchstrategien, welche die Einführung einer neuen Abstraktionsebene nützen um komputational schwierigen Problemen zu begegnen. Anstatt einen einzelnen Algorithmus zu verwenden, der auf eine bestimmte Klasse von Probleminstanzen optimiert ist, versuchen Hyperheuristiken die individuelle Leistungsfähigkeit einer gegebenen Menge von problemspezifischen Heuristiken auszunutzen. Durch die unterschiedliche Kombination und Parametrisierung dieser Heuristiken sind Hyperheuristiken theoretisch dazu in der Lage, gute Ergebnisse über einen größeren Bereich von Probleminstanzen zu erzielen. Idealerweise operieren Hyperheuristiken ohne jegliches Wissen bezüglich der zu lösenden Problemklasse und nur mit sehr geringem Wissen über die zur Verfügung stehenden untergeordneten Heuristiken. Aus diesem Grund können Hyperheuristiken auch oft ohne große Modifikationen auf neue Problemklassen angewendet werden. Die vorliegende Arbeit beschreibt eine neue Hyperheuristik, die speziell darauf ausgelegt wurde, gänzlich unabhängig von einer bestimmten Problemklasse zu arbeiten. Der Algorithmus ist in eine Anzahl unterschiedlicher Suchphasen untergliedert, welche für ein geeignetes Verhältnis zwischen der Intensivierung und der Diversifizierung des Suchprozesses sorgen. Die verfügbaren untergeordneten Heuristiken werden fortlaufend anhand mehrerer Eigenschaften bewertet und mit einer neuen qualitätsbasierten Metrik gereiht. Weiters vereinigt der Algorithmus eine Reihe von Ansätzen aus verschiedenen Gebieten der Forschung an Metaheuristiken, namentlich Iterated Local Search, Simulated Annealing, Tabusuche und genetischen Algorithmen. Eine Variante des Algorithmus wurde als Kandidat bei der Cross-domain Heuristic Search Challenge 2011 von der University of Nottingham eingereicht. Unter den 20 teilnehmenden Kandidaten belegte unser Algorithmus im finalen Bewerb den sechsten Platz.

Diplomarbeitsposter Schwengerer Martin

Martin Schwengerer

Masterstudium Software Engineering & Internet Computing
Abstract:

The graph coloring problem (GCP) is one of the most-studied NP-hard problems in computer science. Given a graph, the task is to assign a color to all vertices such that no vertices sharing an edge receive the same color and that the number of used colors is minimal. Various heuristic and exact approaches for this problem have been developed. However, all of them seem to have advantages and disadvantages, which highly depend on the concrete instance on which they are applied. One possibility to achieve a better performance is to predict for each instance the algorithm which achieves the best performance. This task is known as algorithm selection problem: Given a set of algorithms and a set of intrinsic features of a particular instance, select the algorithm which is predicted to show the best performance on that instance. This thesis investigates the application of machine learning techniques to automatic algorithm selection for the GCP. For this purpose, we first present several specific features of a graph, which can be calculated in polynomial time. Then, we evaluate the performance of 7 state-of-the-art (meta)heuristic algorithms for the GCP based on experimental results on 1265 graphs of 3 public available instance sets. In a subsequent step, we use the knowledge about the best-suited algorithm per instance in combination with intrinsic graph features to train 6 classification algorithms. These supervised learning methods are then used to predict for an unseen instance the most appropriate algorithm. We further identify relevant subsets of features and investigate the impact of different data-preparation techniques on the performance of the classifiers. Finally, we evaluate our proposed approach on a new generated set of instances. Our experiments show that algorithm selection based on machine learning is able to outperform all considered solvers regarding several performance criteria.

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Antic Christian

Christian Antic

Masterstudium Computational Intelligence
Abstract:

HEX programs are disjunctive logic programs under so called FLP-answer-set semantics enhanced with higher-order and external atoms. Since external atoms can represent arbitrary Boolean functions, many formalisms (e.g., dl-programs) can be simulated by HEX programs. For the class of classical programs, major semantics can be characterized in terms of fixpoints of lattice operators defining one step of logical derivation. However, for logic programs with negation, these operators may be nonmonotone, and in this case the fixpoint theory of Tarksi and Knaster is not applicable. Approximation Theory, on the other hand, is an algebraic framework for studying fixpoints of monotone and nonmonotone lattice operators, and thus extends the theory of Tarski and Knaster to the more general class of arbitrary lattice operators. In the first part of the thesis we extend the classical van Emden-Kowalski operator, and the classical Fitting operator to the class of disjunction-free HEX programs, and uniformly define (ultimate) Kripke-Kleene-, (ultimate) well-founded-, and (3-valued ultimate) answer-set semantics by applying Approximation Theory. As a result, we obtain well-supported 2-valued (ultimate) answer-set semantics, and well-founded semantics compatible with the standard FLP-answer-set semantics. For monotone disjunction-free HEX programs, 2-valued answer-set semantics coincide with the standard FLP-answer-set semantics. In the case of disjunctive HEX programs, Approximation Theory is not directly applicable. However, by combining ideas from Approximation Theory, logic programs with aggregates, and disjunctive logic programming, we define 2-valued (ultimate) answer-set semantics of disjunctive HEX programs based on non-deterministic operators. We show that these semantics are minimal, supported, and derivable in terms of bottom-up computations. As HEX programs are generic formalisms, the obtained semantics can be applied for a range of program classes.

Diplomarbeitsposter Kloimüllner Christian

Christian Kloimüllner

Masterstudium Computational Intelligence
Abstract:

This thesis deals with the visualisation of answer sets. Although ASP is an acknowledged formalism in logic-based artificial intelligence, development tools for supporting the programmer during coding are missing. A characteristic feature of solvers is that they return these answer sets as textual output on the screen. When the complexity of the problems rises, the output of the solver often gets larger. In this thesis, we address this problem by developing an appropriate visualisation system, Kara, for answer sets. By writing a visualisation program, the user has the possibility to define the graphical representation of the answer set. Thus, the combination of an answer set with the corresponding visualisation program defines the visualisation of the answer set. In this thesis, a visualisation language is presented. The language consists of special predicates dedicated to several shapes and properties of these representations. The result of combining a given answer set with a visualisation program written by the user outputs in turn an answer set, which, when executed by a solver, can then be processed further by Kara. The tool Kara also allows the user to edit the visualisation graphically. While editing, the user may generate new sets of atoms referred to as interpretations which are not necessarily answer sets of the original answer-set program. This should ease the debugging process. Due to the visualisation language, the answer set of the visualisation is in general not an answer set of the original answer-set program. Thus, Kara offers the user the possibility to compute the corresponding interpretation of the original answer-set program from the actual visualisation. The problem of computing the interpretation corresponding to the original program is represented as an abduction problem. This problem is in turn encoded by an abduction program, which - when executed with a solver - outputs the interpretation corresponding to the original program.

Arbeitsbereich (vor 2018) Formal Methods in Systems Engineering

Diplomarbeitsposter Krall Stephan

Stephan Krall

Masterstudium Computational Intelligence
Abstract:

Die FShell Abfragesprache (FShell Query Language, FQL) erlaubt es deklarativ Code-Abdeckungskriterien zu spezifizieren. Diese Spezifikationen können dann zum einen dazu verwendet werden die durch eine Testsuite erreichte Codeabdeckung zu ermitteln und zum anderen dazu genutzt werden eine abdeckende Testsuite zu erzeugen. CPA/Tiger ist ein FQL Testfallgenerator für C Programme welcher auf dem Konzept der konfigurierbaren Programmanalyse (CPA) basiert. Eine wesentliche Komponente von CPA/Tiger ist ein Interpreter, der nur C-Programme behandeln kann, die keine komplexen Datenstrukturen enthalten. Daher wird ein neuer Interpreter entwickelt, der den Heap eines Programms auf exakte Weise abbildet. Dieser Interpreter wird als statische Programmanalyse realisiert was eine einfache Integration in CPA/Tiger ermöglicht. Die exakte Nachbildung des Heaps über eine Programmausführung hinweg ist resourcenaufwändig und daher ist es nicht praktikabel sämtliche Programmzustände in einer unoptimierten Datenstruktur zu speichern. Die Verwendung der Fat Node Datenstruktur erlaubt die Speicherung aller Programmzustände, welche der Interpreter erzeugt. Der neue Interpreter wird mit dem bereits bestehenden Interpreter experimentell verglichen um die Laufzeitunterschiede der beiden Interpreter abzuschätzen.

Diplomarbeitsposter Pötzl Daniel

Daniel Pötzl

Masterstudium Technische Informatik
Abstract:

Concolic testing is an automated software testing method that combines concrete and symbolic execution to achieve high code coverage and expose bugs in the program under test. We implemented several extensions to the openly available concolic testing tool CREST, and evaluated several aspects of it on the programs replace, grep, sed and Vim. We further describe a procedure to effectively solve constraints during concolic testing by using the push and pop operations commonly provided by SMT solvers. We implemented the procedure in C for the SMT solvers Z3, MathSAT, Yices and STP. In an experimental evaluation on constraints generated by CREST during concolic execution on grep and Vim, the push-pop method outperformed all other methods we tried in most cases. In the second part of this thesis, we discuss the issue of exposing concurrency bugs. We survey several existing tools for finding such bugs, and describe 22 different concurrency bug patterns. Concurrency bug patterns are bug patterns that arise in the context of concurrent programming, and are typically obtained as abstractions of concrete bugs. The study of bug patterns can prevent programmers from making similar mistakes, and can provide guidance for developers of bug exposing techniques and designers of programming languages and APIs.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Auer Daniel

Daniel Auer

Masterstudium Software Engineering & Internet Computing
Abstract:

Wartung ist eine wichtige und im Normalfall die längste Phase im Software-Life-Cycle. Dementsprechend hoch sind die Kosten, welche in der Wartungsphase entstehen. Aus diesem Grund ist die Verbesserung der Wartbarkeit ein oft gewünschtes Ziel. In der vorliegenden Arbeit wird untersucht, ob der Einsatz aspektorientierter Programmierung Einfluss auf die Wartbarkeit hat und ob aspektorientierte Software einfacher oder schwieriger zu warten ist als vergleichbare objektorientierte Software. Der Fokus liegt dabei auf den Subkategorien der Wartbarkeit, Changeability und Testability. Zu diesem Zweck werden Einflussfaktoren auf die Wartbarkeit identifiziert und die Auswirkung der aspektorientierten Programmierung auf diese untersucht. Des Weiteren wird Software aus unterschiedlichen Domänen, die sowohl in einer objektorientierten als auch in einer aspektorientierten Variante vorliegt, zur Analyse herangezogen. Auf beide Versionen der untersuchten Anwendungen werden Wartungsschritte angewendet und die Ergebnisse verglichen. Um Aussagen über die Changeability treffen zu können, werden Änderungen, wie sie typischerweise in der Wartungsphase vorkommen, durchgeführt. Die Komplexität dieser Änderungen gibt Auskunft über die Changeability der zu Grunde liegenden Anwendung. Um Unterschiede bezüglich Testability aufzuspüren, werden für die objektorientierte und aspektorientierte Varianten der ausgewählten Programme Testfälle verfasst. Anschließend folgt eine Analyse der dabei aufgetretenen Schwierigkeiten. Die Analyse ergibt, dass aspektorientierte Programme besonders bezüglich der Streuung der Änderung besser als ihre objektorientierten Pendants abschneiden. Das heißt, Änderungen müssen an weniger Stellen im Code durchgeführt werden. Aus der Testability Untersuchung gingen starke Hinweise auf eine bessere Eignung aspektorientierter Software für unabhängige Tests hervor. Es wurden aber auch neue Testschwierigkeiten erkannt, welche zu einer höheren Testkomlexität führen können

Diplomarbeitsposter Hirsch Jürgen

Jürgen Hirsch

Masterstudium Software Engineering & Internet Computing
Abstract:

The rapid development of the Internet and its increasing popularity required a refinement of communication paradigms which represented the de facto standard a few years ago. In recent years a computer network consists of several clients and a central server, but this network design is antiquated and should be avoided for high performance systems. A scalable modern network consists of hundreds or thousands of clients which exchange data with each other without a required central authority. A concrete implementation of this communication pattern is the space based computing paradigm. These high flexible networks introduce additional difficulties. Whereas in the past a centralized server was easily replicated or mirrored to avoid a loss of data or a service interruption, this approach is more difficult in current space based computing paradigms. Due to the fact that these networks do not contain a centralized data store respectively it is not always obvious on which client a portion of data has been persisted. Each client in the space contains a part of the knowledge of the whole network. Similar to a database cluster, this data has to be replicated and distributed among other clients to avoid a loss of data, if a client disconnects. This work introduces a replication mechanism for MozartSpaces, which follows the space based computing approach. This mechanism allows a flexible replication of the space content. This flexibility is reached by the Replication Manager which uses concrete plugins to control the replication of the space content. Additionally, the Replication Manager contains a quality of service component which is responsible for ensuring some replication parameters like the minimum number of replicas.

Diplomarbeitsposter Wieser Martin

Martin Wieser

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit untersucht, ob fehlerhaftes Verhalten eines Roboters zur Laufzeit mithilfe eines künstlichen Immunsystems erkannt werden kann. Der Einsatz von Robotern auf dem Mond, in Katastrophengebieten oder auch auf dem Spielfeld des Robocups erlaubt häufig kein menschliches Eingreifen. Das selbstständig agierende System muss in vielen Situationen autonom Fehlerfälle erfassen, um darauf im laufenden Betrieb reagieren zu können. Die Abdeckung deterministisch auftretender Fehler durch Ausnahmebedingungen ist häufig nicht ausreichend. Aufgrund dessen werden Ansätze aus der Disziplin des maschinellen Lernens eingesetzt, um den Roboter die Anomalien autark erkennen zu lassen. Künstliche Immunsysteme stellen einen dieser Ansätze dar, die erlauben, fehlerfreie und gefährliche Zustandsmuster zu unterscheiden. Biologische Immunsysteme sind dabei eine Inspirationsquelle für die Algorithmen und deren Bestandteile. Ziel dieser Diplomarbeit ist es, ein Robotersystem mittels künstlichen Immunsystems in die Lage zu versetzen, sowohl deterministisch als auch indeterministisch auftretende Fehler mit unbekannten Quellen zur Laufzeit zu registrieren und indessen deutlich von fehlerfreien Zuständen zu unterscheiden. Dabei dienen die Reaktionszeit des Immunsystems sowie die Anzahl der falsch eingeschätzten Zustände als Evaluierungskriterien. In der Arbeit wird gezeigt, dass ein künstliches Immunsystem integriert in einen Fußball spielenden NAO-Roboter die Fähigkeit besitzt, den Ausfall von visuellen sowie motorischen Fähigkeiten zu diagnostizieren. Die erstellte Infrastruktur wird im Simulator und am Roboter selbst im Spielbetrieb getestet. Der Roboter ist in der Lage, sowohl am Simulator als auch in der Realität 99,5% aller Fehler innerhalb von wenigen Sekunden zu erkennen. Zudem schätzt das künstliche Immunsystem mehr als 99% der fehlerfreien Zustände korrekt ein. Im Rahmen des Robocup 2012 konnte das implementierte System bereits erfolgreich vorgestellt werden.

Diplomarbeitsposter Zarnikov Jan

Jan Zarnikov

Masterstudium Software Engineering & Internet Computing
Abstract:

Coordination of processes within a distributed application is a difficult task. Space based computing solves the coordination problem by writing information into a virtual shared medium called the space. It decouples the processes and eliminates explicit communication between the processes. eXtensible Virtual Shared Memory (XVSM) is a specification of a space based middleware. Until now MozartSpaces (an implementation of XVSM) did not support persistence - all data was lost when the space was shut down or crashed. Previously it was attempted to solve this problem by either implementing persistence as orthogonal functionality with aspects or by replacing the core of MozartSpaces with a database. Unfortunately both approaches have serious drawbacks: the incompatibility with the XVSM transactions and in the case of the aspect-base solution the problematic management of entry IDs. A new approach had to be found. To our knowledge there is currently no space based middleware that can run and store data on a mobile platform without. The solution proposed in this thesis is a new persistence layer which is tightly integrated into the core of MozartSpaces. The persistence layer hides the database-specific details and can use different database engines. Currently supported databases are Berkeley DB and SQLite but it is possible to add support for further databases. The performance of the persistence was evaluated with a benchmark suite. The results show that both Berkeley DB and SQLite are very fast. Using a database also significantly reduced the memory footprint. An important requirement was also the energy-efficiency of the persistence on mobile devices with the Android OS. This goal was reached only partially because there are no energy profilers that can measure the energy consumption of all relevant components on a scale small enough to be usable for code optimization.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Füresz Andrea

Andrea Füresz

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit beschäftigt sich mit einem System zur Speicherung von gesundheitsrelevanten Daten aus der Nutztierbranche. Das Ziel dieser Arbeit besteht darin, einen Softwarearchitekturentwurf für ein derartiges System zu entwickeln. Dabei geht es darum, die einfache und effiziente Verarbeitung von Daten, die Möglichkeit zur lückenlosen Dokumentation sowie wirtschaftliches Management innerhalb der Tierkliniken und Tierarztpraxen zu ermöglichen. Vor dem Systemdesign und dem Entwurf wird die derzeitige Lage am Markt, der gesetzliche Rahmen sowie die Technologiestandards, die dabei zum Einsatz kommen könnten, analysiert.Weiters werden die Anforderungen an dieses System charakterisiert und Stakeholder definiert, für die ein Rollenkonzept entwickelt wird. Aus den gewonnenen Ergebnissen entsteht der konzeptionelle Entwurf, der neben einer textuellen Beschreibung durch den Einsatz von UML auch eine visuelle Darstellung liefert. Die Analyseergebnisse stammen aus umfangreichen Internetrecherchen sowie Gesprächen mit Fachleuten aus der Nutztierbranche. Der Nutzen dieser Arbeit liegt in einem System, das den gesundheitlichen Zustand, die bisherige Krankengeschichte und die verabreichten Medikamente an ein Tier lückenlos dokumentiert sowie diese Daten zentral gesammelt verfügbar macht. Ein derartiges System trägt sowohl zur Verbesserung der Nahrungsmittelqualität sowie zu einer besseren Überwachung von Krankheiten bei, da durch die zentral verfügbaren Daten eine bessere Kontrolle möglich wäre. Das zentrale Ergebnis dieser Arbeit liefert durch die ausführliche Analyse und dem daraus entstehenden konzeptionellen Entwurf eine solide Grundlage für weitere Entwicklungen im Bereich der Umsetzung einer elektronischen Gesundheitsakte für Nutztiere.

Diplomarbeitsposter Kontner Dominik

Dominik Kontner

Masterstudium Software Engineering & Internet Computing
Abstract:

Die vorliegende Arbeit ist im aktuellen Forschungsbereich von eHealth, mHealth und pHealth positioniert. Zunächst werden die Grundlagen und Begriffe erläutert und anhand einer umfassenden Literaturrecherche die Akteure, Services und Prozesse des eHealth identifiziert. Der Fokus dieser Diplomarbeit liegt auf der Wunddokumentation, die essentieller Bestandteil des Wundmanagements und wichtig für die qualitative Bewertung des Wundheilungsprozesses ist. Als Aufgabenstellung wurde eine Android App entwickelt, die die Funktionalitäten eines bereits existierenden Algorithmus zur Bildanalyse für Smartphones zur Verfügung stellt. Um das konkrete Einsatzumfeld dieser App bestimmen zu können, wurden im Zuge der detaillierten Domänenanalyse die technischen und fachlichen Anforderungen an eine medizinische App zur Wundidentifikation erhoben. Aufgrund dieser Analyse wurde ein Prototyp entwickelt, der als Basis für weitere Studien dienen soll. Um das Problem auf einer ganzheitlichen Ebene zu lösen, wurde mit diesem Prototypen eine modulare Systemarchitektur entworfen. Die Wundbilder werden durch den Bildanalysealgorithmus kalibriert, segmentiert und vermessen. In einer abschließenden Evaluierung des Prototyps konnten einige Stärken und Schwächen der Implementierung sowie mögliche Lösungswege aufgezeigt werden.

Diplomarbeitsposter Lemme Thomas

Thomas Lemme

Masterstudium Software Engineering & Internet Computing
Abstract:

Die vorliegende Arbeit besch ̈ftigt sich mit der Modellierung von Abhängigkeiten in einem medizinischen Studiensystem. Die Formularfelder eines Web-Formulars, sowie die dahinter liegenden Daten, sollen durch Formeln und Bedingungen miteinander in Beziehung gesetzt werden. Durch Eingabe von Werten in einzelne Felder werden Berechnungen ausgelöst, die wiederum den Wert anderer Felder bestimmen. Der Ansatz, mit dem diesem Problem begegnet wird, ist der Entwurf und die Entwicklung der Ausdruckssprache Form Expression Language (FXL). Diese ist eine Domain Specific Language (DSL) in der Domäne "Modellierung von Formulardaten". Ahnlich zu bekannten Ausdruckssprachen, wie etwa den Formel-Ausdrücken aus Tabellenkalkulationssoftware, ist die FXL in der Lage, Statements mit Variablen (zum Referenzieren anderer Formularfelder) und Funktionen (zur Erweiterung der Funktionalität) zu evaluieren. Der erste Teil er ̈rtert die zum Verständnis der Arbeit notwendigen technischen und theoretischen Grundlagen. Es werden die Begriffe definiert und eine Ubersicht uber das wissenschaftliche Umfeld der Modellierung von Webformularen geboten. Der zweite Teil widmet sich dem Entwicklungsprozess der Sprache. Zuerst wird der Aufwand der Entwicklung einer neuen Sprache begründet, indem die Vor- und Nachteile der Alternativen abgewogen werden. Danach werden die Entwicklungsphasen Analyse, Entwurf, Implementierung und Test beschrieben. Im Zuge dieser Phasen werden aus den Anforderungen die Sprache und deren Schnittstellen entwickelt. Der dritte Teil behandelt die Integration der in dieser Arbeit entwickelten DSL in das medizinische Studiensystem. Nach einer Beschreibung des Zielsystems werden diverse Themen wie Zyklenfreiheit, Ausführungsreihenfolge, Ausführungszeit und -ort behandelt, die bei der Integration beachtet werden müssen.

Diplomarbeitsposter Schacherl Martin

Martin Schacherl

Masterstudium Medizinische Informatik
Abstract:

In dieser Arbeit wird ein elektronisches Dokumentationssystem im präklinischen Bereich für Tablet-PCs auf Android-Basis vorgestellt. Derzeit wird die Dokumentation im Rettungsdienst hauptsächlich auf Papierformularen durchgeführt. Im Rahmen der Anforderungsanalyse mithilfe von User Interviews zeigte sich, dass die befragten Sanitäter mit der papierbasierten Dokumentation nur wenig zufrieden sind - umständliches Handling, schlechte Lesbarkeit, sowie geringe Datenkorrektheit sind die Hauptgründe. Außerdem begrüßen diese die Einführung eines elektronischen Dokumentationssysstems, da sie Zeitersparnis und Arbeitserleichterung durch ein solches Systems vermuten. Um die User-Akzeptanz hoch zu halten, wurden außerdem die Usability-Techniken „Persona“ und „Szenario“ angewandt. Für die zu übertragenden Daten wurde eine passende Dokumentstruktur auf Basis des internationalen Standards „Health Level 7 - Clinical Document Architecture“ entwickelt, sowie passende REST-konforme Schnittstellen zu Webservices, die der Speicherung von Transportbericht-Daten und Abfrage von Patientendaten dienen, spezifiziert. Außerdem wurde eine Signaturschnittstelle unter Verwendung von HL7-Nachrichten und XMLDsig entwickelt, um die Patientenübergabe an die Behandlungseinrichtung drahtlos und fälschungssicher abzubilden. Der entwickelte Prototyp wurde mehrere Tage im Rahmen eines induktiven Usability-Tests im produktiven Umfeld getestet, und die teilnehmenden Sanitäter anschließend befragt. Dabei zeigten sich nur wenig Probleme, diese vor allem beim Handling des Tablet PC, der Verwendung der Bildschirmtastatur, sowie der Platzierung des Cursors. Aus den Befragungen ergab sich, dass die Teilnehmer die im Vorfeld formulierten Vorteile eines elektronischen Dokumentationssystems durch den Test bestätigt sahen. Außerdem wurden auf Basis der Befragungen zukünftige Erweiterungen, wie eine Schnittstelle zur Leitstelle, sowie das Auslesen der Sozialversicherungskarte (E-Card) ermittelt und vorgestellt.

Diplomarbeitsposter de Haan Ronald

Ronald de Haan

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Imperative Programmiersprachen sind in praktisch allen technologischen Bereichen verbreitet, wobei Programme verschiedene Arten von Berechnungen spezifizieren. Für viele praktische Zwecke ist die automatisierte Analyse semantischer Eigenschaften von Programmen, wie die Terminierung und Äquivalenz, nützlich. Wir stellen ein neues Vorgehen zur automatisierten semantischen Analyse von Programmen bereit durch die Kodierung ihres Verhaltens in die formale Logik. Wir betrachten einige syntaktisch einfache, imperative Programmiersprachen, und wir kodieren Programme dieser Sprachen in Ausdrücke der Beschreibungslogik ALC(D), für einen bestimmten Bereich D. Wir machen das in einer Weise, in der Modelle dieser Kodierungen den Durchführungen der Programme entsprechen. Mit anderen Worten, wir weisen imperativen Programmen eine modelltheoretische Semantik zu. Diese Kodierung ermöglicht es semantische Eigenschaften von Programmen (vor allem Terminierung und Äquivalenz) in der Sprache der formalen Logik auszudrücken. Auf diese Weise reduzieren wir das Schlussfolgern diverser semantischer Eigenschaften von Programmen zu Reasoning-Verfahren der Beschreibungslogik. In praktischer Hinsicht führt dieses Vorgehen direkt zu Algorithmen für das automatisierte Schlussfolgern für einige Fragmente der Programmiersprachen (d.h. Zyklusfreie Programme oder Programme beschränkt auf endliche numerische Bereiche). In theoretischer Hinsicht ermöglicht das Vorgehen weitere, weniger eingeschränkte Fragmente der Programmiersprachen zu identifizieren, wofür einige Aufgaben des Schlussfolgerns entscheidbar sind. Wir identifizieren Eins solcher Fragmente, welches auf endliche Aufteilungen des Zustandsraums basiert, und wir illustrieren, welche Klasse von Programmen zu diesem Fragment gehört.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Biesinger Benjamin

Benjamin Biesinger

Masterstudium Computational Intelligence
Abstract:

In this thesis a method for improving existing metaheuristics for the Reconstruction of Cross-Cut Shredded Text Documents (RCCSTD) problem is presented. For this purpose a memetic algorithm is enhanced by a solution archive, which is implemented in two different ways. Finally, the results of using the solution archive with different configurations of the memetic algorithm are compared to each other. Cross-cut shredded text documents are documents that are cut in rectangular pieces using a shredding device. The aim is to fit the pieces in such a way next to each other so that the original document is reconstructed. Since this problem is NP-complete several heuristic approaches exist. Some of the best results are delivered by a memetic algorithm (MA), which is an extension of an evolutionary algorithm (EA). One of the main problems of this kind of algorithms is the loss of diversity in later generations because a lot of solutions are equal to each other. To circumvent this problem, already generated solutions can be stored and looked up in a solution archive so that only new solutions are accepted by the EA. The insert and the search method for this datastructure have to be as efficient as possible because all solutions generated by the EA are inserted and looked up in the archive. Another requirement of the solution archive is to generate a new solution efficiently if a duplicate was found. A trie-based datastructure meets all the requirements since insertion and search run in time O(h) where h is the height of the trie, which is bounded by the size of the input. It was tested if the solution archive helps the memetic algorithm to find a better solution in the same amount of time. The results showed that in most cases the memetic algorithm in combinaion with the solution archive performed only as good as the memetic algorithm alone. This is also because of the vast memory consumption of the solution archive, which made testing very difficult.

Diplomarbeitsposter Dusberger Frederico

Frederico Dusberger

Masterstudium Computational Intelligence
Abstract:

Shotgun proteomics experiments generate a large amount of raw data. Therefore, an appropriate data analysis is required to separate useful from superfluous information. However, common database search engines, used for identifying the peptides, throw away most of the information contained in MS2-spectra. Moreover, the benefit of the high mass-accuracy provided by current mass spectrometers is forfeited, as the precursors are usually not selected at the optimal time point where the intensity of the respective peptide is highest. To compensate for these drawbacks sophisticated spectrum-preprocessing methods are necessary. In this thesis we studied the application of two ways of MS2-spectrum preprocessing to increase the number of spectra that can be identified by facilitating the identification step of the database search engine: First, different MS2-deisotoping and -deconvolution methods were analyzed. They aim for the removal of isotope peaks and peaks of multiply-charged variants of the analyte peptides, which unnecessarily increase the search space. We demonstrate that these methods raise the confidence in correct identifications by eliminating obstructing peaks from the spectra and that they are nonetheless limited due to the design of the scoring algorithms of common search engines. Secondly, to fully exploit the information that is provided by the high mass-accuracy, we developed a 3d-peak picking algorithm that does not rely on the peptide mass information of the single MS1-spectrum it was selected from for fragmentation, but additionally reconstructs the peptide's elution profile gathering many data points to obtain a statistically confident value for the mass. Experiments confirmed that calculating the peptide masses from reconstructed 3d-peaks significantly increases the precision compared to mass values provided by the instrument. We show that the high precision also increases the identification performance, especially for strict search tolerances.

Diplomarbeitsposter Gebhard Philipp

Philipp Gebhard

Masterstudium Computational Intelligence
Abstract:

Das Vehicle Routing Problem with Compartments (VRPC) beschreibt ein generalisiertes Routingproblem mit einer homogenen Flotte an Fahrzeugen mit mehreren Abteilungen, die Bestellungen von Kunden kostenminimal ausliefern sollen. Weiteres gibt es unterschiedliche Produkttypen, die entweder nur in gewisse Abteilungen oder nicht mit anderen Produkttypen ins gleiche Abteil geladen werden dürfen. Diese Arbeit behandelt zwei leicht unterschiedliche Problemdefinitionen die auf Anforderungen aus der Öl- und Nahrungsmittelindustrie eingehen. Die Fahrzeuge, die zum Transport unterschiedlicher Kraftstoffe von einer Raffinerie zu den einzelnen Tankstellen eingesetzt werden, haben typischerweise mehrere Abteilungen mit einer fixen Größe. Die verschiedenen Kraftstoffe dürfen in beliebige Abteile geladen, aber nicht miteinander vermischt werden. Fahrzeuge, die für den Transport von Nahrungsmitteln eingesetzt werden, haben oft mehrere Abteilungen, die durch eine verstellbare Trennwand, variabel in ihrer Größe sind. Eine optimale Lösung für Routingprobleme ist meist nur mit großem Aufwand zu finden, da das zugehörige Entschiedungsproblem zu den sogenannten NP-schweren Problemen gehört. In dieser Arbeit werden drei Lösungsansätze vorgestellt: ein randomisierter Clarke and Wright Savings Algorithmus, eine auf Schwarmintelligenz beruhende Verbesserungsheuristik und ein exakter Branch and Price Ansatz. Das verschachtelte Packproblem wird einerseits heuristisch mit Konstruktionsalgorithmen und andererseits mit einem Constraint Programming Modell gelöst. Die Effektivität der Modelle und Algorithmen wurden auf drei verschiedenen Testdatensätzen evaluiert. Das exakte Verfahren kann, wie auch bei verwandten generalisierten Routingproblemen, nur auf relativ kleinen Probleminstanzen angewendet werden, während die heuristischen Ansätze in der Lage sind alle gegebenen Probleminstanzen relativ gut zu lösen.

Diplomarbeitsposter Hiermann Gerhard

Gerhard Hiermann

Masterstudium Computational Intelligence
Abstract:

Das multimodal home healthcare scheduling (MHS) Problem beschäftigt sich mit der Zuweisung von HeimhelferInnen zu PatientInnen unter Berücksichtigung von Präferenzen sowie gesetzlicher und vertraglicher Bestimmungen als auch mit der Erstellung von Touren anhand der zuvor festgelegten Zuteilung. Im Zuge eines Projektes des Austrian Institute of Technology (AIT) wurde bereits ein Framework zur automatisierten Lösung eines solchen Problems anhand einer Fallstudie entwickelt. Untersucht wurde das Lösen von Ein-Tages-Problemen anhand einer vom AIT entwickelten Zielfunktion. In dieser Arbeit werden die weiteren entwickelten Lösungsmethoden, die in das bestehende Framework implementieren wurden, beschrieben und mit dem vorhandenen Lösungsansatz verglichen. Da das MHS mit den gut untersuchten vehicle routing problem with time windows und dem nurse rostering problem verwandt ist, wurden drei Lösungsansätze aus diesem Bereich ausgewählt und an das MHS angepasst. Die erste Metaheuristik ist eine simulated annealing hyper heuristic, welche mittels einer Menge an so genannten low-level heuristics eine gute Lösung sucht. Bereits dieser Ansatz zeigte vergleichbar gute Ergebnisse mit dem existierenden Ansatz. Der zweite Lösungsansatz ist ein memetic algorithm. Dieser erzielte die besten Ergebnisse bereits nach kurzer Zeit. Als dritter Ansatz wurde ein scatter search verwendet, welcher deterministischere Techniken anwendet als der zuvor genannte memetic algorithm. Die Resultate zeigen jedoch, dass dieser Ansatz sehr hohe Laufzeiten benötigt, um vergleichbar gute Ergebnisse zu erzielen. In einer Vielzahl an Tests wurden Entscheidungen bezüglich Parameter und Methoden auf ihre Auswirkung auf die Leistung der Ansätze überprüft sowie der bereits existierende Ansatz mit den in dieser Arbeit Beschriebenen anhand von Instanzen aus der Praxis verglichen. Die Ergebnisse zeigen, dass vor allem der memetic algorithm sehr gute Ergebnisse erzielt.

Diplomarbeitsposter Ivezic Ivan

Ivan Ivezic

Masterstudium Computational Intelligence
Abstract:

This thesis introduces the reader to the basics of constraint programming. Furthermore, the constraint satisfaction problem modeling process, and the general procedure required to solve it is introduced. Constraint satisfaction problem solving concepts such as propagation and branching are explained for a general constraint satisfaction problem as well. Interval constraint programming, a subclass of constraint programming where the domains of variables are intervals, is then introduced. Then, interval arithmetic is briefly presented. Afterwards, the peculiarities of interval constraint satisfaction problems are highlighted. Furthermore, generic consistency notions are introduced, followed with the description of hull consistency and box consistency, which are the two consistency notions relevant to interval constraint programming. A method for enforcing both hull and box consistency is given. The C++ constraint programming framework Gecode is then briefly presented. An extension of Gecode supporting interval constraint programming, that was developed alongside this thesis, is described in detail. The implementation relies on the Boost Interval library to handle intervals. To implement the box consistency propagator, an additional library, namely, SymbolicC++ was used and extended. The necessary extensions of SymbolicC++ library are described as well. The implemented extension was tested on three benchmarks, namely, Broyden Banded, Broyden Tridiagonal and Brown. Experiments on Broyden Banded show that SymbolicC++ may have been a suboptimal choice for the extension, because of relatively high constraint initialization time. Broyden Tridiagonal evaluates the performance of box consistency propagation, whereas Brown evaluates hull consistency propagators. The final test of the extension is the 3D reconstruction problem. The formal description of the problem is given, and the results of the 3D reconstruction obtained with the extension are shown.

Diplomarbeitsposter Sturm Martin

Martin Sturm

Masterstudium Computational Intelligence
Abstract:

This work is concerned with the task of mathematical modeling and the heuristical resolution of complex scheduling problems in the context of automated IT environments. In order to tackle a practical scheduling problem with the means of scientific optimization theory it is necessary to find a formalization in mathematical terms. This subproblem is considered in the first part of this work, where a number of models is examined for their adequacy. Because of their lack of flexibility, the classical machine scheduling models are discarded in favor of the broader project scheduling models. As final formalization the very general multi-mode resourceconstrained project scheduling problem with generalized precedence relations (MRCPSP/max or MRCPSP-GPR) is chosen. This choice is justified by the fact that this model allows the modeling of resources in a more adequate way to capture the broader concept of a resource in IT environments. Furthermore it enables the formalization of complex timing constraints in a natural way. This increased flexibility comes with a tradeoff in the form of increased complexity. It is shown that the resolution of MRCPSP/max instances with mixed integer programming methods is not practical, even for small instances. Therefore in the course of this work a software library has been implemented with the goal to provide solutions with high quality in a practical time frame by using heuristic optimization methods. Following the proposals in the scientific literature genetic algorithms serve as the underlying metaheuristic. This work provides an overview on the details of available implementations from the literature and presents a combination of several approaches in the form of a flexible software library. Furthermore we present new evolutionary operators which are proven to perform well in extensive benchmark tests.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Birsak Michael

Michael Birsak

Masterstudium Visual Computing
Abstract:

Archaeological monuments are nowadays preserved for future generations by means of digitization. To this end, laser scanners in conjunction with registered cameras are used to gather both the geometric and the color information. The geometry is often triangulated to allow a continuous mapping of the photos onto the geometry. The color mapping for high-quality reconstructions of parts of the models is not without problems. In practice, the photos overlap. Now, assuming that a particular triangle receives color information from just one photo, there is a huge number of possibilities to map the photos onto the triangles. This labeling problem is already covered in literature. There are also approaches for the leveling of the remaining seams. In this thesis, we improve common labeling approaches by the introduction of an accurate geometry-based occlusion detection. An octree is used to quickly filter out parts of the model that do not come into consideration for an occlusion anyway. The occlusion detection prevents texturing of parts of the model with image material that does not contain the expected region, but the colors of an occluder. Further, a proposed approach for seam leveling on meshes is improved by the introduction of a new term into the least squares problem that corresponds to the proposed leveling approach. This new term penalizes big leveling function values and helps to keep the leveled color values in the valid range. For the high-performance visualization of 3D models with a huge amount of textures, we make use of virtual texturing. We present an application that generates the needed data structures atlas and tile store in significantly less time than existing scripts. Finally, we show how all the mentioned functionalities are integrated into a visualization application that can support a graphic artist in the post-processing of a digitized archaeological monument.

Diplomarbeitsposter Hecher Michael

Michael Hecher

Masterstudium Visual Computing
Abstract:

While a huge body of soft shadow algorithms has been proposed, there has been no methodical study for comparing different real-time shadowing algorithms with respect to their plausibility and visual appearance. Therefore, a study was designed to identify and evaluate scene properties with respect to their relevance to shadow quality perception. Since there are so many factors that might influence perception of soft shadows (e.g., complexity of objects, movement, and textures), the study was designed and executed in a way on which future work can build on. The novel evaluation concept not only captures the predominant case of an untrained user experiencing shadows without comparing them to a reference solution, but also the cases of trained and experienced users. We achieve this by reusing the knowledge users gain during the study. Moreover, we thought that the common approach of a two-option forced-choice-study can be frustrating for participants when both choices are so similar that people think they are the same. To tackle this problem a neutral option was provided. For time-consuming studies, where frustrated participants tend to arbitrary choices, this is a useful concept. Speaking with participants after the study and evaluating the results, supports our choice for a third option. The results are helpful to guide the design of future shadow algorithms and allow researchers to evaluate algorithms more effectively. They also allow developers to make better performance versus quality decisions for their applications. One important result of this study is that we can scientifically verify that, without comparison to a reference solution, the human perception is relatively indifferent to a correct soft shadow. Hence, a simple but robust soft shadow algorithm is the better choice in real-world situations. Another finding is that approximating contact hardening in soft shadows is sufficient for the ``average'' user and not significantly worse for experts.

Arbeitsbereich (vor 2018) Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Limbeck Philip

Philip Limbeck

Masterstudium Medizinische Informatik
Abstract:

The human face provides a rich source of information which can be exploited to diagnose facial impairments. Facial palsy is one of these impairments, and is caused by restrictions of the nerval actuation of muscles responsible for facial expressions. The main symptoms of this condition are asymmetrical facial movement and partial facial paralysis. To measure its progress, physicians require clinical measures extracted from those locations of the face which provide most information about the facial expression. Small artificial markers indicate these locations by being placed on the patient's face before an evaluation session. A video of the patient is recorded which is used to localize these markers in every frame. This task is currently performed manually by an operator and can take up to 5 hours for a single video. Object tracking refers to the estimation of the position of objects from an image sequence. Illumination and occlusion are considered as the main problems when tracking artificial objects. Natural objects, such as the human face, have a high potential for deformation and are characterized by an irregular texture. As not only one, but multiple markers have to be tracked simultaneously, additional difficulty is imposed by ensuring that markers can be uniquely identified. The thesis explores the possibility of tracking these markers semi-automatically by a applying a sequential Bayes estimation technique, which assesses a set of hypothesis using their congruence with the target model. Hence, the location of each marker can be accurately estimated and occlusions handled efficiently. To improve the accuracy and to reset lost markers, the clinical operator can interact with the tracking system. The results showed that our chosen methods are superior when compared with traditional trackers which use only a single hypothesis concerning the marker locations, while at the same time being able to preserve an accuracy comparable to manual tracking.

Diplomarbeitsposter Reicht Ignaz

Ignaz Reicht

Masterstudium Medizinische Informatik
Abstract:

Tractographie, auch Fiber Tracking genannt, bezeichnet eine Bildverarbeitungstechnik die mittels diffusionsgewichteter Magnetresonanz Tomographie (DWI) Informationen über die anatomischen Strukturen des menschlichen Gehirns ableiten kann. Zusätzlich findet diese Technik auch Anwendung in der Therapieplanung und Verlaufskontrolle bei Tumorpatienten. Neue Ansätze und Optimierungen von Fiber Tracking Methoden konnten bereits im Vorfeld deren klinische Relevanz aufzeigen. Bis zum heutigen Zeitpunkt wurden noch keine praxistauglichen Endanwendungen entwickelt, welche sich der Komplexität von Tractographie annehmen und die Daten und Informationen dementsprechend verarbeiten um das Potential von Fiber Tracking in einem klinisches Umfeld voll ausgeschöpfen zu können. Der Hauptanwendungsbereich ist dem radiologischen Umfeld zuzuordnen in dem performante und interaktive Bildverarbeitungsmechanismen von hoher Genauigkeit sowohl in 2D als auch in 3D den Alltag bestimmen. Aus diesem Grund wurde bei der Umsetzung dieser Arbeit speziell auf diese Anforderungen eingegangen und ein effizientes Framework definiert welches die intuitive Visualisierung und Interaktion verschiedenster Tractographie Ergebnisdaten realisiert um so eine Basis zu schaffen, welche sowohl praxisnahen Anwendungen aus der Radiologie als auch Anforderungen aus dem Gebiet der Neurowissenschaften gerecht wird. Als Zielsetzung galt eine Anwendung bereitzustellen, welche sowohl effizient, intuitiv als auch funktionell umfangreiche Eigenschaften aufweist und durch die Verwendung bereits existierender Standards die Integration und Verwendung externer Tractographie-verfahren motiviert. Zusammen mit Radiologen und Wissenschaftlern wurden die umgesetzten Aufgabenstellung auf Benutzbarkeit, Funktionalität, Effizienz und Leistung für einen praxisnahen Einsatz evaluiert. Als Entwicklungsplattform wurde das open-source Softwareprojekt Medical Imaging Interaction Toolkit (MITK) herangezogen.

Diplomarbeitsposter Zankl Georg Michael

Georg Michael Zankl

Masterstudium Visual Computing
Abstract:

Wenn es darum geht verschiedene Methoden der Objekterkennung in natürlichen Bildern zu vergleichen, stehen diverse etablierte Aufgaben im Mittelpunkt. Beispiele dafür sind Bildsegmentierung, semantische Bildsegmentierung und Objekterfassung. Diese traditionellen Aufgaben der Objekterkennung haben gewisse Einschränkungen, wie etwa Mehrdeutigkeit in allgemeinerem Kontext. Zum Beispiel gibt es oft mehrere Bildsegmentierungen für ein natürliches Bild, die ein Mensch als richtig beurteilen würde, abhängig davon welches Objekt besonders interessant für die entsprechende Person ist. Wir schlagen die Aufgabe vor, interaktiv jedem Segment einer hierarchischen Segmentierung eine semantische Bezeichnung zuzuordnen. Der Fokus dieser Arbeit ist es, eine Lösung dieser Aufgabe vorzustellen und auftretende Vor- sowie Nachteile zu diskutieren. Der größte Nachteil ist, dass es schwieriger ist passende Ground Truth zu finden. Der wesentliche Vorteil ist, dass die Struktur der Beschriftungen in der Ground Truth dazu verwendet werden kann, dem Benutzer zu helfen neue hierarchische Segmentierungen zu beschriften. Wir präsentieren ein Framework, das eine Feedbackschleife beinhaltet, bei der eine Beschriftung vom Framework vorhergesagt wird und der Benutzer falsch bezeichnete Segmente selektieren und die korrekte Bezeichnungen zuordnen kann. Dieser Vorgang kann wiederholt werden, bis der Nutzer zufrieden mit dem Ergebnis ist. Der Kern des Frameworks ist ein auf Conditional Random Fields basierendes Modell, das sowohl auf die hierarchische Segmentierung als auch auf die Benutzereingaben konditioniert wird. Eine Evaluierung findet auf zwei verschiedenen Datensätzen statt. Dabei wird die Qualität zu einer einfachen Baseline verglichen, die aus einer einzelnen Vorhersage der Beschriftung gefolgt von vollständig manueller Korrektur der Bezeichnungen besteht. Ergebnisse zeigen deutlich schnellere Konvergenz des Frameworks im Vergleich zur Baseline.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Kuntner Andreas

Andreas Kuntner

Masterstudium Medieninformatik
Abstract:

This thesis suggests the enhancement of Ambient Assistant Living (AAL) environments by applying concepts from the research field of User Interaction Description Languages (UIDL). In detail, it should evaluate how user interfaces for interacting with AAL services can be generated in an automatic or semi-automatic way based on generic user interaction descriptions, and how the users of AAL environments can benefit from such an approach. This is accomplished by defining a list of criteria for evaluating the applicability of existing User Interaction Description Languages to the field of Ambient Assistend Living. Existing solutions were analyzed and compared with each other based on these criteria as part of this thesis. The class of mobile devices, including both smartphones and tablet devices, was defined as exemplary target platform for evaluating the possibilities of generated user interfaces. Interviews and user workshops were conducted using mockups of potential user interactions that might occur in common AAL services, in order to analyze how the typical user group of AAL environments interacts with devices belonging to this class. Guidelines for the implementation of a user interface generation system were established based on the results of this investigation. In addition, a prototype version of a user interface generation system for use in AAL environments was developed, including two exemplary services and a front-end solution for mobile devices. For evaluating this software product, it was formally analyzed based on the criteria mentioned above, and compared to the other mentioned UIDL solutions. In addition, practical tests were performed in cooperation with members of the system's prospective user group in order to evaluate how well those potential users can interact with AAL services using automatically generated user interfaces.

Diplomarbeitsposter Mayrhofer Manuel

Manuel Mayrhofer

Masterstudium Software Engineering & Internet Computing
Abstract:

Der Bildungsbereich hat durch die Entwicklungen der letzten Jahre völlig neue Möglichkeiten erhalten. Diese finden zwar bereits häufig unter dem Überbegriff des E-Learnings in asynchronen Lernszenarien Anwendung, werden aber noch nicht dazu genutzt, den Präsenzunterricht zumindest teilweise zu ersetzen. Studien der Arbeiterkammer zeigen, dass 28 Prozent der Eltern für ihre Kinder externe Nachhilfe in Anspruch nehmen, da auch die Mütter im Gegensatz zu früher immer schneller in den Beruf zurückkehren. Das zeigen auch die Ergebnisse der Statistik Austria von 2010, welche eine Diskrepanz von 2,7 Prozentpunkten zwischen erwerbstätigen Männern und Frauen aufzeigen. Im Vergleich dazu betrug dieser Unterschied im Jahr 1995 noch 10,7 Prozentpunkte. Daher würde sich, um die Eltern zu entlasten und auch potentielle Wegzeiten einzusparen, eine online Plattform anbieten, auf der Lernende interaktiv und in Echtzeit Unterricht in Anspruch nehmen können. Aktuell werden zwar schon Systeme eingesetzt, die eine online Abwicklung des Unterrichts vorsehen, diese werden aber nur selten eingesetzt bzw. häufig von den Usern nicht angenommen, da diese von einer 1:1 Ersetzung des Präsenzunterrichts durch den online Unterricht ausgehen. Diese Arbeit untersucht daher anhand von realitätsnahen Lernszenarien, welche neuen Anforderungen an Lehrer, Schüler und Materialien durch diese Unterrichtsform entstehen und ob diese ausreichen, eine neue Didaktik zu definieren. Aufbauend auf diesen Ergebnissen und unter Berücksichtigung der technischen Möglichkeiten, wurde ein Konzept für eine derartige Plattform entwickelt und teilweise implementiert bzw. evaluiert. Zusammenfassend kann gesagt werden, dass zwar geänderte und neue Anforderungen (neue Unterrichtssituation durch räumliche Trennung, digitale Materialien etc.) durch die geänderte Unterrichtsform auftreten, diese jedoch nicht ausreichen, um eine neue Didaktik zu definieren.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Grosinger Jasmin

Jasmin Grosinger

Masterstudium Medizinische Informatik
Abstract:

Zu wenig körperliche Bewegung bei über 65-jährigen ist ein weitverbreitetes Phänomen in westlichen Gesellschaften. Einer der Gründe dafür ist der Mangel an Wissen über die positive Wirkung körperlicher Betätigung auf die Gesundheit. In dieser Arbeit wird eine Persuasive Technology entwickelt, die Ältere dazu motivieren soll körperlich aktiver zu sein. Dabei wird die Barriere des Wissensmangels über den Nutzen von körperlicher Betätigung adressiert. Außerdem soll der Wunsch der Senioren enge soziale Kontakte zu pflegen als Ko-Motivation fungieren. Ein dritter Aspekt ist positive Bekräftigung für absolvierte Aktivitäten. Als Plattform für die Applikation dient ein Touch-Tablet, das laut Studien ein vorteilhaftes Eingabegerät für ältere Leute darstellt. Im Rahmen eines User Centred Design Prozesses werden Anforderungen und Prototypen in mehreren Iterationen entwickelt. Endergebnis ist die Tablet Softwareapplikation Agile Life. Informationen über körperliche Betätigung (PAICs) zusammen mit Vorschlägen zu Aktivitäten adressieren die Wissensbarriere älterer Leute. Ein Feature dient der Koordinierung von Aktivitäten und eine metaphorische Graphik der positiven Bekräftigung und Belohnung für durchgeführte Aktivitäten. Die Applikation wird in einer Anwenderstudie evaluiert; eine einwöchige Technology Probe soll Inspiration für zukünftige Projekte provozieren. Insgesamt wird Agile Life positiv bewertet. Die Applikation kann Bewusstsein schaffen und körperliche Betätigung motivieren. Der soziale Faktor als Ko-Motivator ist sehr effektiv. Der Inhalt der PAICs ist kritisch für den Erfolg der Applikation - er muss für die jeweilige Zielgruppe maßgeschneidert sein, um motivierend zu wirken. Die Metapher zur positiven Bekräftigung sollte einstellbar sein, um Präferenzen einzelner User zu genügen.

Diplomarbeitsposter Stern Patrick

Patrick Stern

Masterstudium Medizinische Informatik
Abstract:

In den kommenden 40 Jahren wird sich die Anzahl der Bürger im Alter über 65 beinahe verdoppeln in Österreich. Dies ist Ausdruck eines globalen Trends einer alternden Bevölkerung. Dadurch verschiebt sich das Verhältnis zwischen Hilfsbedürftigen und deren Helfern und Helferinnen. Die Konsequenz ist ein Anstieg der Kosten für das Gesundheits- und Pflegewesen. Zudem steigt auch der zeitliche Aufwand für Pflege kumuliert über die Gesamtbevölkerung. Ambient Assisted Living (AAL) ist ein Forschungsfeld mit dem Ziel, ältere Menschen bei den Tätigkeiten des Alltags zu unterstützen. Der Wunsch, im eigenen Heim zu altern, ist weit verbreitet. AAL-Lösungen wollen diesem Wunsch nachkommen, indem sie die Unabhängigkeit von externer Hilfe stärken. Solche AALPlattformen sind eine Kombination aus technischer Infrastruktur, bestehend aus Hard- und Software, und Dienstleistungen von Dritten. Die Vielfältigkeit an Herstellern von AAL-Produkten ist groß, und viele verwenden die ihnen bekannten, proprietären Protokolle, welche zueinander inkompatibel sind. Es gibt keinen standardisierten Ansatz, um medizinische Endgeräte mit deren Manager-Software verbindet. Ein Projekt mit dem Ziel diese Interoperabilität zu verbessern ist UniversAAL. Es sollen neue Entwickler und Entwicklerinnen von AAL-Diensten in der Design- und Implementationsphase mit der nötigen Infrastruktur und der Referenzimplementation einer AAL-Plattform unterstützt werden. Die ISO/IEEE 11073 ist eine Reihe von Standards für den Austausch von Vital- Daten. Diese Diplomarbeit beschreibt die Entwicklung einer Standard-konformen Schnittstelle zwischen Continua-zertifizierten medizinischen Endgeräten und der UniversAAL AAL Plattform. Bluetooth ist das Transport-Protokoll, welches momentan am häufigsten zum Einsatz kommt. Die Manager-Software läuft auf einem Linux-System als Open Source implementiert. Dadurch wird zukünftigen Entwicklern und Entwicklerinnen eine Basis für eigene AAL-Lösungen geliefert.

Diplomarbeitsposter Zeller David

David Zeller

Masterstudium Medieninformatik
Abstract:

Die im Zuge dieser Arbeit konzeptuell entworfene Applikation ist eine web-basierte Präsentations-Software, deren Ziel es ist diverse Schwächen von gegenwärtig verwendeten Tools, wie etwa Microsoft’s PowerPoint oder Apple’s Keynote, zu beseitigen. Im Gegensatz zu anderen populären Alternativen, wie beispielsweise Prezi, folgt es dem klassischen Folien (Slides) Prinzip. Allerdings erweitert es dieses in mehrerer Hinsicht. Es wird beispielsweise mit dem strikt linearen Charakter und der Unabänderlichkeit von Slides aufgeräumt. So ist es selbst während der Vorführung einer Präsentation noch möglich, die Reihenfolge der Folien zu ändern bzw. deren Inhalte zu bearbeiten. Zudem werden Funktionen zur Verfügung gestellt, die die Interaktion mit dem Publikum unterstützen. Zuhörer, die über ein internetfähiges Gerät verfügen, können der Präsentation online auf einer entsprechenden Website folgen und dort auch Texte, Bilder, Videos oder jegliche andere Form von Inhalten posten. Diese werden dem Vortragenden übermittelt, der die eingesandten Materialien begutachten und in die laufenden Präsentation integrieren kann. Letzterem ist es außerdem möglich auf Folien Bereiche zu definieren, in denen Inhalte von der Zuhörerschaft frei nach Belieben abgelegt werden können. Das Zielpublikum für die Software ist primär natürlich jede/r, der/die ein flexibles und einfach zu bedienendes Präsentations-Tool benötigt. Durch ihre erhöhte Flexibilität bietet sich die Applikation jedoch auch für Anwendungen jenseits eines statischen Vortrages an, wie beispielsweise zur Unterstützung von Team-Meetings oder akademischen Workshops. Allgemein gesprochen, stellt die Applikation, nicht zu letzt ihrer web-basierten Natur wegen, eine vielversprechende Lösung für sämtliche Belange, in denen Informationen öffentlich geteilt und dargestellt werden müssen, dar.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Diplomarbeitsposter Barbaric Slavica

Slavica Barbaric

Masterstudium Business Informatics
Abstract:

DWH-Projekte sind meist groß und komplex, dementsprechend haben sie auch eine hohe Misserfolgsquote und sind sehr teuer. In der Entwicklung von DWH-Systemen, wird die Entwicklung der separaten Komponenten oft getrennt und teilweise manuell durchgeführt. Es gibt auch einen großen Mangel an Automatisierung der Aufgaben. Richtiges Anforderungsmanagement und entsprechende Mappings, d.h. die Zuordnung von Daten aus verteilten und heterogenen Quellen zu der richtigen Stelle in der DWH-Struktur, sind nur einige der großen Herausforderungen in dem DWH-Engineering. Um zuverlässige, genaue und einheitliche Informationen zu liefern und die semantische Bedeutung der Daten in DWH-Systemen zu erhalten, muss DWH Entwicklung integriert und von entsprechenden Tools unterstützt werden. Der Bedarf an einem zentralen Modell, eine Art Referenz für die Daten in allen Phasen ist unerläßlich. In dieser Diplomarbeit geben wir als erstes einen Überblick über DWH Grundlagen und aktuelle Ansätze. Danach stellen wir zwei neue erfolgsversprechende Ansätze vor: Semantic Business Information Model Based On Teradata’s BDE Concept By Priebe et al. und MDA Approach in DWH Engineering von Trujillo et al .. Der erste Ansatz ist modellgetrieben. Der Lösungsvorschlag für die Probleme der semantischen Bedeutung, Rückverfolgbarkeit, Wiederverwendbarkeit und Harmonisierung ist ein semantisches Geschäftsmodell. Im zweiten Ansatz stellen sie ein integriertes, modellgetriebenes Framework kombiniert mit dem MDA Ansatz für das DWH-Engineering vor. Das Ziel dieser Diplomarbeit ist es Anbieter der Tools und Ansätze fü die oben erwähnten Probleme zu identifizieren und bewerten. Ausgewählt wurden drei Anbieter und ihre Tools: IBM - InfoSphere, Teradata - Products & Services, Kalido Dynamic Information Warehouse. Die Bewertungskriterien werden unter Berücksichtigung der in dieser Diplomarbeit identifizierten DWH Probleme erarbeitet. Die Toolsets werden bewertet und die Ergebnisse in dieser Diplomarbeit vorgestellt.

Diplomarbeitsposter Dünser Johannes

Johannes Dünser

Masterstudium Medizinische Informatik
Abstract:

Systeme zur automatischen Textklassifikation sind weit verbreitet und werden für viele Applikationen erfolgreich eingesetzt. Besonders bei Texten mit sehr spezifischem Inhalt liefern diese Systeme jedoch oft nicht die optimale Leistung. Eine domänenspezifische Optimierung ist notwendig. Das Ziel der vorliegenden Arbeit ist die Optimierung eines Systems zur automatischen Textklassifikation am Beispiel des medizinischen Fachbereichs. Im Besonderen sollen Artikel welche sich mit der Thematik ’off-label drug use’ (zu Deutsch ’zulassungsüberschreitende Anwendung’) beschäftigen erkannt werden. Die Integration des Unified Medical Language System (UMLS) als medizinische Ontologie erlaubt die Reduktion von synonymen Begriffen, das Anreichern der Dokumente mit Oberbegriffen und das kontextsensitive Ersetzen von mehrdeutigen Konzepten. Die Auswertung des optimierten Systems im Vergleich zur Prototyp- Applikation zeigt eine Verbesserung der Genauigkeit um 11.7% und eine Verbesserung der Trefferquote um 2.5%. Obwohl die erzielten Resultate eine eindeutige Weiterentwicklung gegenüber dem Prototyp aufzeigen, besteht noch offenes Potential. Die inhaltliche Komplexität der verwendeten Ontologie verursacht Probleme bei der Anreicherung der Dokumente mit Oberbegriffen. Eine Analyse des verwendeten Stemming-Algorithmus und der Stopwort-Liste zeigt, dass eine domänenspezifische Anpassung sinnvoll wäre. Um eine weitere Verbesserung zu erreichen, müssen dieses und die anderen offenen Probleme im Rahmen von zukünftigen Forschungsarbeiten geklärt werden.

Diplomarbeitsposter Feledi Daniel

Daniel Feledi

Masterstudium Information & Knowledge Management
Abstract:

Heutzutage nehmen Informationssysteme eine sehr wichtige Rolle für Organisationen und Individuen ein, weshalb ihr Schutz einen immer größeren Stellenwert einnimmt. Häufig werden Lösungen für sehr ähnliche Informationssicherheitsprobleme immer wieder aufs Neue entwickelt. Hier wäre ein Wissensaustausch zwischen Experten wünschenswert damit nicht ständig dieselben Lösungen von unabhängigen Personen erarbeitet und somit wertvolle Ressourcen verschwendet werden. Diese Diplomarbeit hat zum Ziel, ein bestehendes Webportal für IT-Sicherheitsexperten zu erweitern, um die Erfassung und den Austausch von Wissen zu erleichtern. Im Anschluss an die praktische Entwicklungsarbeit wurde eine Evaluierung des Webportals mit Sicherheitsexperten durchgeführt, um die Funktionalität und die Usability zu untersuchen. Neben diesen Erweiterungen am bestehenden System wird der derzeitige Stand der Forschung auf diesem Gebiet erfasst um zu klären, auf welche Art und Weise sich Wissen zwischen Organisationen austauschen lässt und wie ein Tool den Wissensaustausch unterstützen kann. Die Forschungsergebnisse zeigen, dass ein Wissensaustausch an konkrete Anreize gekoppelt sein muss, um Teilnehmer zu motivieren. Diese Anreize können ökonomischer Natur sein oder aber auf der Erwartung basieren, dass für das Einbringen von Wissen zumindest gleichwertige Information erhalten wird. Zusätzlich muss eine Vertrauensbasis aufgebaut werden, ohne die ein Austausch nur sehr begrenzt möglich ist. In Bezug auf die Unterstützungsmöglichkeiten durch ein Tool waren die wesentlichen Ergebnisse, dass ein kollaboratives Tool für Experten sowohl als Nachschlagewerk als auch für Risikoanalyse brauchbar wäre, allerdings unter der Voraussetzung, dass eine vertrauenswürdige Umgebung geschaffen wird. Wichtig ist in diesem Zusammenhang auch die "kritische Masse" an Inhalten, welche erreicht werden muss, damit das Tool für neue Nutzer interessant wird.

Diplomarbeitsposter Kascha Michael Alexander

Michael Alexander Kascha

Masterstudium Medieninformatik
Abstract:

The performance of an information retrieval system depends on the document collection it has to work on and can be influenced to a certain degree by tuning the systems parameter values. There are several different measures to evaluate the effectiveness of retrieval systems. All of them have in common that they require human relevance judgments to determine if search results are satisfying the information need of the queries. However, their creation is both very expensive and time consuming. There have been three fundamentally different approaches to create performance rankings without the need of these relevance judgments. This thesis first introduces relevant background information and then takes a closer look at the approach that shows the most potential in determining the top performers. It employs an unsupervised measure called retrievability which expresses how accessible documents are for the system. Experiments are conducted to compare various effectiveness measures to the retrievability bias at different system parameter values. This is done with three different retrieval methods on four different collections. Results show that while there is usually always a general correlation of high effectiveness and low retrievability bias observable, it largely depends on the length and/or quality of the user queries issued. In some cases a minimal retrievability bias does not indicate a good parameter setting for maximizing the effectiveness values. There might be several reasons for this behavior which still require further research.

Diplomarbeitsposter Neubauer Barbara

Barbara Neubauer

Masterstudium Medizinische Informatik
Abstract:

The aim of this thesis was an empirical comparison between a dynamic and two static visualizations which are suitable for analyzing relationships of two variables and their development over time. The chosen dynamic visualization presents the development of the data with an animated scatter plot. Within the static visualizations (“Small Multiples” and “Trace view”) the time intervals are displayed in small pictures arranged side by side. Additionally data points belonging to an object are connected by lines in the “Trace view”. Those connections between the data points are continued over all small pictures and therefore visualize the whole development of the parameters explicitly. To make the comparison possible it was necessary to extend the prototype TimeRider by the “Small Multiple” visualization with the possibility to activate the traces resulting in the previously described “Trace view”. The quantitative study was carried out over the internet, where each of the 29 participants had to solve tasks with all visualizations. The analysis of the results showed that all visualizations caused similar success rates and completion times for tasks concerning outliers and clusters. Regarding data movements within clusters and small changes in the data the animation outperformed the other visualizations significantly in correctness. The results also showed that participants solved tasks concerning the analysis of specific data points and the comparison between them significantly faster and with higher success rates with the dynamic visualization. However for nearly every hypothesis the results were dataset-dependent and had to be analyzed split by dataset which reduces the significance of the statistical results. But allover the results indicate that animation is better or at least equal to the two static visualizations for the analysis of time-oriented data.

Diplomarbeitsposter Stransky Sabine

Sabine Stransky

Masterstudium Informatikmanagement
Abstract:

Das Ziel dieser Arbeit ist die Entwicklung einer computerunterstützten Lern- und Testmöglichkeit für den Bereich Unternehmensgründung. Diese soll sowohl in der Schule, aber auch in der Erwachsenenbildung im Zuge des Unterrichts verwendet werden können, um den Lerneffekt zu steigern. Die Auswertung der Tests soll automatisch möglich sein aber dabei trotzdem der Testperson eine möglichst freie Antwortmöglichkeit bieten. Dies wird in Form eines Online-Rollenspiels, dem Projektmanagement-Game (PM-Game), umgesetzt. Gerade im Bereich der Unternehmensgründung sind auch Kommunikationsfähigkeiten von großer Bedeutung, denn sowohl Verhandlungsgeschick mit Kunden sowie die Umsetzung einer Unternehmensgründungsstrategie ist für den Erfolg der geplanten Unternehmung essenziell. Daher ist der Einsatz eines Überprüfungstools für Projektmanagement Fähigkeiten naheliegend. Weiters wurde im Zuge der Erstellung des Spiels eine Richtlinie zum PM-Game erstellt, die es auch Personen ohne IT Kenntnisse in Zukunft ermöglichen soll neue Testsituationen (Stories) für unterschiedliche Einsatzmöglichkeiten zu erstellen. Im PM-Game wurde ein Spiel erzeugt. Dieses ist in zwei Stories unterteilt, wobei im ersten Szenario die Gründungsbasis geschaffen wird auf welcher aufbauend im zweiten Teil die Details der Unternehmensgründung abgehandelt werden. Diese wurden in mehreren kleineren Testdurchläufen, von am Projekt unbeteiligten Personen, getestet und deren Feedback umgesetzt. Anschließend wurde in einem weiteren Testdurchlauf überprüft, ob die Aufgabenstellungen nicht zu trivial sind. In einem großen Benutzertest sollte der Lerneffekt der Testpersonen geprüft werden. Das generierte Spiel erfüllt nach Auswertung der Benutzerstudie seinen Zweck und bietet einen motivierenden Überblick über die Thematik der Unternehmensgründung und interkulturellen Kommunikation.

Diplomarbeitsposter Thillen Francois

Francois Thillen

Masterstudium Software Engineering & Internet Computing
Abstract:

Component-based software engineering emphasizes the composition of software systems through loosely coupled independent components. Although software components are binary units of independent software artifacts, they typically interact with other components as they form a functioning system and thus implicitly define dependency relations. However, in case of distributed component-based software systems current testing strategies either assume total independence of components or require usage of mock-up frameworks which do not facilitate testing of the entire component but only a subset of it. Consequently, the dependency structure between components is not really taken into account. Therefore, those tests are limited in their effectiveness of detecting defects in software systems with distributed components. In the work the "Effective Tester in the Middle" (ETM) approach is presented, which improves testing of components depending on other distributed components. The approach relies on test scenario specific interaction models and network communication models which facilitate isolated testing of entire components without the need to run the overall system. We evaluate the approach by implementing test scenarios for a system integration platform. The prototypic implementation demonstrates that software testers are able to create unit test like integration tests with minimal effort and that it increases the quality of the system by enabling the injection of fault-messages.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Fried Alexander

Alexander Fried

Masterstudium Medieninformatik
Abstract:

Medienverstehen ist der Versuch, Computern menschenartiges Erkennen von Medien unter- schiedlicher Art zu ermöglichen. Diese Arbeit beschäftigt sich mit drei Themenbereichen aus diesem Gebiet: der Ähnlichkeitsberechnung von Gesichtern, der Objekterkennung (im Speziellen der Körperteilerkennung) und der Spracherkennung. Diese drei Themengebie- te wurden in Applikationen praktisch umgesetzt. Die Absicht dieser Demoanwendungen besteht darin, die Praxisbezogenheit des Medienverstehens zu verdeutlichen. Die für die Umsetzung erforderlichen Methoden werden im theoretischen Teil dieser Diplomarbeit be- schrieben. In diesem Abschnitt wird argumentiert, warum diese Methoden für die Imple- mentierung geeignet sind, wobei Bezug auf verwandte Arbeiten genommen wird. Die erste Demoanwendung verdeutlicht Ähnlichkeitsmessung zwischen Gesichtern. Als Methode der Ähnlichkeitsberechnung wird Template Matching verwendet. In der zwei- ten Anwendung werden die mit der Webcam aufgenommenen Körperteile erkannt. Hier wird eine lokale Featureextraktionsmethode verwendet. Für die Klassifizierung wird u. a. eine probabilistische Methode herangezogen. Die dritte Applikation ermöglicht sprachli- che Interaktion mit dem Computer. Der Benutzer erhält die Aufforderung, den Laut eines vorgegebenen Tieres nachzumachen, das System soll überprüfen, ob es sich um das rich- tige Tier handelt. Genauso gut kann jedoch auch eine Frage gestellt werden, auf die der Benutzer mit dem Tiernamen antworten muss. In der Implementierung werden spektrale Features verwendet, die anhand eines geeigneten Klassifikators analysiert werden. Alle drei Applikationen beweisen, dass Medienverstehen erfolgreich implementiert werden kann.

Diplomarbeitsposter Gerger Roman

Roman Gerger

Masterstudium Computational Intelligence
Abstract:

This thesis deals with the automated classification of paintings against the painting styles cubism, expressionism, impressionism, pointillism and renaissance painting by the means of a prototypical proof of concept system. A feature set has been developed which covers a wide range of feature extraction approaches such as edge-based, frequency-based or color-based features. Some approaches have been adopted from other research project where they have been applied on related problems. The classification of a painting for a human is a highly emotional and intuitive process. As a consequence it is difficult to operationalize and it contains a certain amount of unpredictability. And indeed, it has turned out that some of the developed features behave as intended whereas others behave against intuition and expectation. It is, however, just this unpredictability which makes the underlying classification problem interesting. In order to find the best parameter tuple for each feature they have been optimized on a training set of 1000 images. In order to investigate how far the optimized feature set is reducible a principle component analysis has been applied on it. Succeeding the feature optimization stage the classification algorithms C4.5 - decision tree, random forest, naive bayes, multilayer perceptron and k-nearest neighbor have been applied on the feature set. As it has been done in the feature optimization stage, a wide range of parameter tuples have been tested for each classification algorithm whereas a stratified 10 x 10 cross validation on the training set has been used as the measurement for the classification performance. The classifier which has shown the best results in the cross validation test has been used to classify an independent test set of 200 images. By this means it could be shown that the classification task can be solved in this particular domain. Further, it could be shown that the related retrieval problem is also worth investigating.

Diplomarbeitsposter Nake Viktoria

Viktoria Nake

Masterstudium Informatikmanagement
Abstract:

Zwei parallel ausgerichtete Kameras nehmen je ein zweidimensionales Bild auf. Die korrespondierenden Bilder haben aufgrund des Horizontalabstandes der Kameras leicht unterschiedliche Perspektiven. Dies wird genützt, um die Tiefeninformation zu berechnen. Eine Disparitätskarte wird oft als Grauwertbild dargestellt und gibt über die Tiefenanordnung der Objekte im Raum Auskunft. Im Bereich autostereoskopischer Bildschirme kommen Disparitätskarten häufig zum Einsatz, um den Inhalt dreidimensional darzustellen und um neue Ansichten („Novel Views“) zu generieren. Ziel dieser Arbeit ist, einen bereits bestehenden Stereomatching-Ansatz, der bisher manuelle Interaktion benötigte, vollständig zu automatisieren. Dafür wird zunächst eine automatische Shoterkennung erstellt, wobei unterschiedliche Verfahren implementiert werden: Color Histogram Difference und Edge Change Ratio. Danach wird evaluiert, welches Verfahren (bzw. Kombination) mit welchen Parametern zu den besten Ergebnissen führt. Da nun die, zu einem Shot gehörigen, Frames bekannt sind, ist es möglich, die minimale/maximale Disparität eines Shots abzuschätzen. Aus Aufnahmen mit unterschiedlichen Stereo-Setups werden drei Testsequenzen erstellt. Die Setups reichen von zwei handelsüblichen Consumer-Kameras über eine Mittelklasse-Stereokamera, bis hin zu professionellen Studiokameras. Ein Vergleich dieser Setups wird angestellt und die Auswirkung der unterschiedlichen Setups auf die Testergebnisse festgestellt. Die Ergebnisse der automatischen Shoterkennung und Disparitätsabschätzung werden mit manuell ermittelten Ergebnissen überprüft. Abschließend werden die Ergebnisse der Arbeit evaluiert und zusammengefasst.

Diplomarbeitsposter Presle Philipp

Philipp Presle

Masterstudium Medieninformatik
Abstract:

Many of the currently existing Virtual Dressing Rooms are based on diverse approaches. Those are mostly virtual avatars or fiducial markers, and they are mainly enhancing the experience of online shops. The main drawbacks are the inaccurate capturing process and the missing possibility of a virtual mirror, which limits the presentation to a virtual avatar. By utilizing depth cameras like the Microsoft Kinect it becomes possible to track the movements of a body, extract body measurements and furthermore create a virtual mirror with the corresponding video stream. The video image can be merged with a piece of clothing frame by frame. The project is implemented in Unity, a programming environment for 3D applications. OpenNI and the NITE middleware are used for various fundamental functions and for the tracking process in combination with the Microsoft Kinect. Taking a closer look at the results, several 3D cloth models were created and textured. The pieces of garment are based on a female 3D model. The clothes are adapted to the body of the user in front of the Kinect during runtime. In addition, cloth physics are taking care of a realistic representation. Furthermore trying on clothes in front of different backgrounds and surroundings (e.g. at night) shall be possible. Also a lot of value is placed on the interaction aspects of the Virtual Dressing Room.

Diplomarbeitsposter Stransky Sabine

Sabine Stransky

Masterstudium Medieninformatik
Abstract:

Bei der Produktion von hochqualitativen 3D Filmen mittels Stereokameras stehen Filmschaffende oft vor der Herausforderung, eine Veränderung des 3D Tiefeneindrucks in der Post-Produktion durchführen zu müssen, um ein angenehmes Tiefenerlebnis auf unterschiedlich großen Bildschirmen zu erhalten. Ziel dieser Arbeit ist es, ein Verfahren zur nachträglichen Korrektur des Tiefeneindrucks mittels des in „Nonlinear Disparity Mapping“ [Lang et al. 2010] vorgestellten Ansatzes zu untersuchen. Im ersten Schritt erfolgt eine Literaturrecherche über verschiedene Methoden zur Anpassung der Tiefenparameter für stereoskopische Filminhalte. Dabei wird auf Methoden zur tiefenbasierten Generierung von stereoskopischen 3D Ansichten und auf die damit verbundenen Probleme eingegangen. Die Methode für „Nonlinear Disparity Mapping“ [Lang et al. 2010] wird im Detail vorgestellt. Im Weiteren wird ein Datensatz an Testbildern zusammengestellt und eschrieben. Dieser Datensatz wird anschließend zur Evaluierung der Methode mittels einer Benutzerstudie verwendet. In dieser subjektiven Evaluierung werden unterschiedliche Fragestellungen bei verschiedenen Kamerapositionen und Tiefeneinstellungen untersucht. Die Arbeit hat nach Auswertung der durchgeführten Usertests ergeben, dass eine Anpassung der Tiefenparameter mit der untersuchten Methode möglich st, dass dies aber für externe Kamerapositionen in Bezug auf das Auftreten von unbeabsichtigten Artefakten in der Szene eine Verschlechterung darstellt.

Diplomarbeitsposter Zingerle Mathäus

Mathäus Zingerle

Masterstudium Medieninformatik
Abstract:

Die rasante Entwicklung von mobilen Geräten wie Smartphones hat zu neuen Möglichkeiten im Bereich von Mobile Augmented Reality (AR) geführt. Obwohl es bereits eine Vielzahl an AR Anwendungen gibt, die die Integration von statischem Inhalt (z.B. Text) erlauben, besteht noch immer ein Mangel an mobilen AR Anwendungen, welche die Integration von dynamischen Inhalten (z.B. Video) ermöglichen. In dieser Arbeit wird ein neuartiger Ansatz präsentiert, welcher es erlaubt an einem Interessenspunkt aufgenommenes Videomaterial an derselben örtlichen Stelle wiederzugeben, so dass die Live-Ansicht einer realen Umgebung mit diesem Videomaterial überlagert wird, unter Berücksichtigung des aktuellen Blickwinkels des Benutzers auf die betrachtete Stelle. Das vorgestellte System benützt einen Tracker, welcher auf einem Umgebungspanorama basiert, um eine räumliche Registrierung von Overlays (erzeugt aus dem Videomaterial) zu ermöglichen. Diese Overlays können somit durch das Tracking innerhalb dieser Umgebung nahtlos in die Live-Ansicht einer Anwendung eingebettet werden. Dadurch wird Endbenutzern erlaubt vergangene Geschehnisse zu einem anderen Zeitpunkt wiederzuerleben. Um dies zu erreichen, wird zuerst eine Segmentierung von Vordergrund und Hintergrund in dem aufgenommenen Videomaterial durchgeführt. Basierend darauf wird veranschaulicht, wie diese extrahierte Information präzise und in Echtzeit in der Live-Ansicht von aktuell verfügbaren Mobiltelefonen integriert werden kann. Außerdem wird ein erster Prototyp vorgestellt (als Teil einer Skateboard-Trainingsanwendung), inklusive Beschreibung des User Interfaces und implementierter Post-Effekte. Abschließend werden die Resultate einer im Zusammenhang mit dieser Arbeit durchgeführten Benutzerstudie vorgestellt und eine Aussicht auf mögliche zukünftige Verbesserungen in Bezug auf das vorgestellte System gegeben.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Graf Tobias

Tobias Graf

Masterstudium Business Informatics
Abstract:

In today's business world, enterprise resource planning (ERP) systems are essential for larger enterprises to conduct their business. ERP solutions fulfill several tasks in companies, including the management of resources, sales, warehouse, employees, and accounting. Since even small and medium enterprises (SMEs) can gain profits using them, ERP solutions especially for those are developed. The main difference between them is the reduced complexity of ERP software for SMEs. Since about 98% of all Austrian companies have less than 50 employees, the market for appropriate ERP systems is large. Those statistics also apply to the entire European Union. Many SMEs do not work with an ERP system yet, but instead use Microsoft Excel and send business documents via email. Another reason for a basic ERP system is that e-Invoicing is becoming more and more essential for SMEs. Larger enterprises are already using e-Invoicing for many years, but smaller enterprises lack the technical requirements. Most electronic data interchange (EDI) standards are too complex and the software is too expensive. Therefore a cheap and easy to use approach for SMEs to exchange business documents is desirable. The Vienna University of Technology project "`E-business Registry Permitting Enterprise Liaisons"' (ERPEL) fulfills those requirements. In order to motivate even small companies without any ERP system in use to partake, a basic ERP system is needed. A self-made solution is built especially including messaging, instead of adopting an existing open source ERP system.

Arbeitsbereich (vor 2018) E-Commerce

Diplomarbeitsposter Angerbauer Max

Max Angerbauer

Masterstudium Medieninformatik
Abstract:

Street Art is a common sight in urban areas. Albeit there are questions about the le- gality of this art form there is still a large group of people who are enthusiastic about it. A multitude of websites revolves around Street Art and its practitioners. In combination with a widespread availability of digital photography the documentation of Street Art is happening on a large scale across the Web. The use of new generation mobile devices enables a new form of providing additional metadata for use with digital image collections. Embedding geographical data within digital images opens up new possibilities of generating context in the documentation of Street Art. This document examines the use of modern smartphones in the creation of digital image collections. The capabilities of new generation mobile phones can greatly enhance the caption and transmission of data in a system and help create bet- ter collections of digital images. To demonstrate and to find possible ways to implement this a webapplication called Street Art Places was created. To make use of collected GPS data within pictures a clustering algorithm finds areas in geographical regions where works of Street Art can be found in close vicinity to each other. These areas can be seen as art galleries in the public space. The integration of the Twitter service provides further possi- bilities for the use of mobile phones with digital image collections. Twitter can be used to transmit data to a web application and to share content from it back to other services.

Diplomarbeitsposter Dubsky Jörg

Jörg Dubsky

Masterstudium Business Informatics
Abstract:

Die stetig wachsende Verbreitung von sozialen Netzwerken im Internet und die damit einhergehende aktive Beteiligung der Menschen, führte zu einem starken Anstieg des sogenannten „user-generated content“. Internetnutzer veröffentlichen und teilen neben persönlichen Informationen auch ihre Erfahrungen und Meinung über verschiedenste Themen. Dies gilt natürlich auch für kulturelle Institutionen. Museen und deren Ausstellungen werden aus vielerlei Gesichtspunkten beurteilt und rezensiert. Diese Informationen stellen einen wichtigen Aspekt bei dem menschlichen Entscheidungsprozess dar. In der heutigen Zeit nutzen viele Menschen das Internet um schnellst möglichst Erfahrungsberichte zu erhalten. Die Meinung anderer kann folglich die Wahl des zu besuchenden Museums stark beeinflussen. Um eine möglichst vollständige und objektive Meinung mehrere Menschen zu erhalten, ist eine Vielzahl von Rezessionen notwendig. Jedoch ist das Suchen und Lesen eine anstrengende und zeitintensive Aufgabe. Um diesen Prozess für den Menschen zu vereinfachen, werden sogenannten Sentiment Analysis Systeme verwendet. Dabei werden in Textdokumenten automatisiert subjektive Meinungen extrahiert. Das gesamte Dokument, einzelne Sätze innerhalb eines Dokumentes oder einzelne Aspekte innerhalb von Sätzen können gefiltert und bewertet werden. Diese Master’s Thesis entwickelt ein „Feature-based Sentiment Analysis“ Model für kulturelle Institutionen. Dabei werden deutschsprachige Textdokumente aus verschiedensten sozialen Netzwerken und Online-Communitys analysiert. Dabei werden zunächst besprochene Aspekte von Museen (z.B. Ausstellungen, Eintrittspreis, etc.) extrahiert. Anschließend werden die dazugehörigen, subjektiven Meinungen (positiv, neutral, negativ) bestimmt. Zur Automatisierung verwendet das konzipierte System Algorithmen aus dem Bereich des maschinellen Lernens und ein selbstgenerierendes Opinion Lexikon. Der entwickelte Prototyp visualisiert die extrahierten Themen mittels Diagrammen.

Diplomarbeitsposter Huber Hermann

Hermann Huber

Masterstudium Information & Knowledge Management
Abstract:

We are drowning in information and starved for knowledge. John Naisbitt once used this phrase to point out, that the massive amount of daily produced information in its unprocessed state is hardly useful. Manual investigation, aggregation, interpretation and suitable presentation is needed to produce a valuable good: knowledge. The thesis deals with the question to what extent the publicly available information on the internet can be used to gain new useful knowledge, using the example of art history. Methodologies of Text Mining and Natural Language Processing are used to link two controlled vocabularies, so-called thesauri. The Union List of Artist Names (ULAN) comprises information about more than 200.000 artist from antiquity to the present. Unfortunately the thesaurus does not specify the art-historical style of the respective persons. The implemented prototype ARTMiner uses the knowledge bases DBpedia and Freebase to extract person-specific information and derives the appropriate movement. In order to adhere to the principles of linked data, the literal movement string is mapped the according concept in the Art & Architecture Thesaurus (AAT). The evaluated results show a high degree of validity and consistency. During the mining process, a FOAF-like network of influential artists was generated, which could be used for further link analysis. Additionally, a thesaurus-supported keyword extraction procedure on the basis of part-of-speech tagging was developed.

Diplomarbeitsposter Krombholz-Reindl Katharina

Katharina Krombholz-Reindl

Masterstudium Medieninformatik
Abstract:

Social networks (SNs) have become increasingly popular in the recent years. Platforms such as e.g.Facebook, Google+ or Twitter offer features for self-presentation and communication and many more. Social networks are criticized for their data security and privacy regulations and can be misused for stalking, mobbing, hacking or identitytheft. In social media, users share all kinds of different content, sometimes containing sensitive information. Privacy has become a weak point in SNs. Sensitive information can be leaked by the platform, third parties or even the user herself. Privacy attitudes are not always overlapping the actual disclosure behaviors, therefore sensitive information can be leaked unconsciously. In this work, we discuss privacy related issues in social media and analyze how Facebook users perceive privacy and what strategies they use to protect their privacy. Furthermore we identify weak spots and discuss possible solutions. Millions of users in SNs are connected through online relationships. But is every Facebook profile really maintained by a real human-being? Most users have large friend lists and sometimes don’t even know who they are friends with. Attackers often use fake profiles to infiltrate friendship networks and harvest user data. In this work, we determine factors that influence a user to become friends with a fake profile, still believing that they know each other for real. When conducting our research, we examined Facebook users’ privacy protection strategies and described the actual privacy behavior. We studied factors that make social engineering attacks in social networks successful. We phrased research questions and used three different research methods. We conducted a survey to gather quantitative data and focus groups to get a deeper understanding by collecting and analyzing qualitative data. To determine factors for success of infiltrating profiles on Facebook we conducted a comprehensive social engineering experiment.

Diplomarbeitsposter Li Jinze

Jinze Li

Masterstudium Information & Knowledge Management
Abstract:

Die Erstellung der wertschöpfenden Dienste durch Zusammensetzung atomarer Serviceeinhei- ten hat bisher an großer Dynamik gewonnen. Der Schwerpunkt der jüngsten Versuche der Service- Komposition liegt in der Beschreibung atomarer Service aus beiden syntaktischen und semanti- schen Aspekten und der Anwendung von Web-service als Übergabesmethode. Diese Arbeit be- fasst sich mit dem Kompositionsproblem durch künstliche intelligente Plannungstechniken und argumentiert die Verwendung von Domäne-Wissen für Representation von Service-Resourcen. Zu diesem Zweck müssen die Methoden des Wissensengineerings für die Bereitstellung reich- haltiger Wissensmodelle zum Lösen der Planungsprobleme im realen Leben verwendet werden. Verschiedene Planungsparadigmen werden im Hinblick auf Eignung für die Lösung von Pla- nungsaufgaben diskutiert. In der Arbeit wird eine konkrete Wissensdomäne als Planungsdomä- ne konstruiert um den wissensbasierten Ansatz zu demonstrieren. Jedes atomare Service in der Domäne wird mit Voraussetzungen und Ergebnissen angegeben. Basierend auf der Wissensdo- mäne, ist ein Planungssystem in der Lage, ein zusammengesetztes Service zu generieren, das die benutzerdefinierten Präferenzen und Ziele erfüllt. Zusammen mit der Domäne wird ein Prototyp eines Servicesystems mit dem Planungssystem integriert entwickelt, um die praktische Anwen- dung der wissensbasierten Planungsaufgaben zu fördern. Eine Wissensbasis dient als Domain- Repository, das in Web zugegriffen werden kann. Das System zusammen mit der konstruierten Wissensdomäne wurde erfolgreich getestet und auf beiden funktionalen und nichtfunktionalen Ebenen bewertet.

Diplomarbeitsposter Sadauskas Martin

Martin Sadauskas

Masterstudium Information & Knowledge Management
Abstract:

Entwicklung der Informationstechnologien und deren Integration in den Alltag von Millionen von Menschen hat großen Einfluss auch auf die Tourismusbranche. Es gibt mehr und mehr tourismusorientierten Websites, die den Touristen und Reisenden helfen ihre Entscheidungen zu treffen. Schlechte Gestaltung und Inhalte der Website können zu großen Verlust an potenziellen Verkäufen und potenziellen wiederholten Besuchen führen. Der beste Weg, um dies zu verhindern ist die regelmäßige Überprüfung der Website-Qualität nach vorgegebenen Kriterien und weitere Verbesserungen aufgrund deren Ergebnisse. Verschiedene Arten von Websites haben unterschiedliche Qualitätskriterien sowie unterschiedliche Unterteilung der Wichtigkeit über diese. Für jede Art gibt es leider nur eine Handvoll von Forschungsarbeiten. Darüber hinaus erfüllen die meisten der vorgeschlagenen Evaluationsmethoden nicht die Kriterien für regelmäßige Evaluierung. In dieser Arbeit entwickeln wir eine Methode für die Längsüberwachung der Qualität der Website eines Destination Management Systems (DMS). Es wurden Artikel über Qualitätsbewertung der Tourismus-Websites evaluiert, diese wurden in eine Anzahl von Qualitätskriterien synthetisiert und weiterhin in das aktualisierte DeLone und McLean IS Success Model sortiert. Anschließend wurden die Gewichte der einzelnen Faktoren durch Anwendung der Analytical Hierarchy Process bestimmt. Danach wurd ein Werkzeug für Auswertung und Überwachung der Surveys vorgestellt und implementiert. Die Anwendung wurde zweimal getestet, zusammen mit der Methode zur Bewertung der Qualität der DMS Website, an finnischen und slowakischen nationalen Tourismus-Portalen, mit einem Intervall von einem Monat. Die Ergebnisse zeigten, dass das Tool korrekt funktioniert und dass es Potenzial für weitere Verwendung hat.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Hilscher Markus Michael

Markus Michael Hilscher

Masterstudium Medizinische Informatik
Abstract:

Objectives: Synchronization among neurons is thought to arise from the interplay between excitation and inhibition but the connectivity rules that contribute to synchronization are unknown. Neuronal networks are extremely complex, not only because of the huge amount of cells involved but also because of the variety of different actions contributing to network activities. We studied this problem by investigating hippocampal microcircuits in CA1 using the multi channel patch clamp technique and real-time computing. Methods: The real-time system in combination with the patch clamp technique which is often referred to as dynamic clamp, allowed us to build hybrid neuronal networks containing both biological and artificial (modeled) cells. We were able to introduce the synaptic response from other cells to patched neurons during network activity. By connecting a model interneuron with two pyramidal cells (PC), we were able to test the role of different connection rules in synchronizing pyramidal cell activity. Results: Our experiments demonstrated that eliminating the feedback from PCs to the interneuron produced the greatest level of synchronization. We investigated several aspects of interneuron-PC-PC communication and studied the synchrony level of the two patched pyramidal cells by simulating different biological realistic hippocampal microcircuits. Moreover we investigated the role of intrinsic membrane mechanisms contributing to synchronization. Conclusion: Our results shed light on how hippocampal microcircuits can synchronize and generate oscillatory activity. Additionally, we suggest how hippocampal neurons are connected and how these connections alter the way these circuits process information. We also demonstrate that changes in the conductance of HCN channels, by blocking them pharmacologically, can modulate hippocampal network synchronization.

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Ackermann Klaus

Klaus Ackermann

Biomedical Engineering
Abstract:

The integration of Europe into one European Union accordingly resulted in the integration of Europe’s individual economies. Meaning that the economic development and stability of one country depends to a greater extent on the success of the rest of the European partners. This reliance was heightened by the introduction of the European Monetary Union in 1999 with the Euro as the common currency. Despite the Euro member states having a central bank, it is each country’s responsibility to finance its government debt through the emission of governmental bonds. The risk premiums that have to be paid by each country differ through-out the Euro zone. The concern that Italy, with the present state of its economy and development prospects, could introduce future implications of its high government debt to the European Union as a whole. An analysis of the Italian economy will explore this likelihood. The concern here is to give an analysis of the Italian Economy and development with its future implications of high governmental debt. Economic growth and welfare is measured in the Gross Domestic Product (GDP). The classical macroeconomic models with the GDP as a sum of the consumption, investment, government purchases and net exports of a country are classical Keynesian models. The standard estimation approach for a macroeconomic model is to explain endogenous variables through exogenous variables. It considers governmental debt as a decreasing factor, such as payment for interest on bonds, and not the absolute amount of the government debt. This problem will be addressed by applying the econometric model E2012 to Italy, which takes the national debt as stock variable into account.

Diplomarbeitsposter Preuss Alexander

Alexander Preuss

Masterstudium Business Informatics
Abstract:

Firm size and firm growth rates are important economic measures which affect people’s live around the world. The reasons for firm entry, growth and exit are influencing employment levels, their understanding is therefore crucial to make economic predictions. This thesis reviewed in a first step the existing literature by Robert Gibrat, Herbert Simon, Boyan Jovanovic and a popular paper summarizing the historical literature by John Sutton. A study on European multinational firms showed that firm size has a negative impact on growth and thus do not support Gibrat’s law of proportional effect. Studies performed on Portuguese and Italian firms also did not support Gibrat’s law, showing a highly right skewed distribution which gets flatter with firm age. It was shown that financial constraints are strongest for young entrepreneurs as well as for young firms, that financially constrained firms have on average less employees and show a lower growth rate than firms that are not financially constrained. The important fields of globalization and productivity was discussed in detail. All potential influencers of firm size and growth that were introduced were summarized in a comprehensive table at the end of Chapter 3. The last chapter of this work applied the introduced concepts and potential influencers to existing OECD and Eurostat data sources. Productivity calculations based on the OECD Structural Demographic Business Statistics data base outlined that productivity levels across Europe are highly heterogeneous, also differing by firm size classes and sectors. Eurostat data were used to calculate firm survival rates across European countries, showing that the one- to five year survival rates differ strongly between countries. An Eurostat survey, including 25 000 firms in 20 member states, was used to show that in total more that 20% of the polled firms stated that the ’general economic outlook’ will be one of their top-five growth limiting factors between 2010 and 2013.

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Grill Elisabeth

Elisabeth Grill

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Der Übergang vom Offline- zum Online-Stalking, die rasche Entwicklung der Technologien, die bei dieser Form der Belästigung Anwendung finden, sowie die Anonymität im Internet erschweren Behörden die Strafverfolgung. Opfer in Österreich sind durch die Virtualität der „sozialen Gewalt“ vorerst überfordert und suchen nach Anzeige bei der Polizei Hilfe bei den zuständigen Gewaltschutzzentren und Interventionsstellen. Cyberstalking ist auch für diese ein neues Themenfeld mit dem sich deren MitarbeiterInnen zur Opferberatung auseinandersetzen müssen. Die wichtigsten Anforderungen wurden gesammelt, aus Fallbeispielen und Fragestellungen herausgearbeitet und in dieser Arbeit untersucht. Neben einem kurzen Einblick in Stalking- und Cyberstalking-Theorien wird vor allem der komplexe Technikeinsatz, dessen sich der Cyberstalker bedienen kann, aufgezeigt. Zusätzlich werden proaktive und reaktive Maßnahmen gegen Cyberstalking-Angriffe erläutert. Die gesellschaftliche Relevanz des Problems wird anhand einer österreichweiten Studie dargestellt. Cyberstalking-Handlungen werden in Österreich unter dem Auffangtatbestand der 'Beharrlichen Verfolgung' unter Strafe gestellt, wobei der Geltungsbereich von Fall zu Fall geklärt werden muss. Grundlagen dieser Arbeit waren Bücher unterschiedlicher Universitätsbibliotheken, e-Books, Artikel aus Online-Datenbanken, Gesetzestexte, kriminologische Zeitschriften, Zeitungsberichte, ein Forschungsbericht des bmvit sowie Studien zu diesem Thema. Die Ergebnisse werden in digitaler Form auf einer Webseite den Gewaltschutzzentren zur Verfügung gestellt.

(vor 2018) Institut für Konstruktionswissenschaften und Technische Logistik

Diplomarbeitsposter Steinwandter Armin

Armin Steinwandter

Masterstudium Business Informatics
Abstract:

Wissensmanagement ist eine große Herausforderung für Organisationen unserer Zeit. Häufig dienen textbasierte Wikis hierfür als Softwarelösung. Da diese allerdings sehr einfach strukturiert sind und keine komplexen Abfragen erlauben, stellt sich die Frage, ob SemanticWikis fürWissensmanagement besser geeignet sind. Dies wird anhand eines Vergleichs zweier konkreter, vorab ausgewählter Softwarelösungen – eines textbasiertenWikis (MediaWiki) und eines Semantic Wikis (Ontowiki) – überprüft. Gleichzeitig erfolgt eine Anforderungsanalyse an die semantische Struktur, welche anschließend erstellt und mit Begriffen aus dem Produktdatenmanagement exemplarisch befüllt wird. Um eine umfassende Bewertung der Softwarelösung zu ermöglichen, wird die semantische Struktur darauf folgend in das Ontowiki eingespielt. Der Vergleich beider Softwarelösungen bestätigt, dass Semantic Wikis textbasierten Wikis besonders bei der Suche überlegen sind und komplexe Sachverhalte besser darstellen können. Gleichzeitig gestaltet sich die Benützung aufwendiger und setzt höhere technische Kenntnisse voraus. Auch wird deutlich, dass besonders die Darstellung der Suchergebnisse im Ontowiki noch verbessert werden sollte – hierfür werden konkrete Verbesserungsvorschläge erarbeitet. Da sich die Überlegenheit von SemanticWikis fürWissensmanagement nicht eindeutig bestätigt, ist im jeweiligen Fall zu entscheiden, welche Softwarelösung für die betroffene Zielgruppe und die vorherrschende Komplexität der Daten besser geeignet ist. Für den konkreten Anwendungsfall eines gelungenen Wissensmanagements von Produktdaten an der Technischen Universität Wien erscheint Semantic Wiki als bessere Lösung, nicht zuletzt aufgrund der Anbindung an das Semantic Web.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Mühlbachler Roland

Roland Mühlbachler

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die TÜV AUSTRIA CERT GMBH und TÜV AUSTRIA SERVICES GMBH betreiben eine Zertifizierungsstelle für Managementsysteme. Die verbindliche Norm ISO 17021 fordert die Gewährleistung der Unparteilichkeit des Unternehmens und einen einmal jährlich tagenden Ausschuss zur Sicherung der Unparteilichkeit. Dieser Ausschuss hat eine Bewertung über die Unparteilichkeit der Zertifizierungsstelle und deren Zertifizierungssentscheidungen durchzuführen. Ziel meiner Arbeit ist es, Anforderungen zur Gewährung der Unparteilichkeit heraus zu arbeiten und dem Ausschuss eine Hilfestellung zur Bewertung der Unparteilichkeit zu präsentieren. Durch die Analyse von Normen, EU-Richtlinien, Verhaltensrichtlinien, Gesetzen und weiterer Literatur wurden Anforderungen ausgearbeitet. Interviews mit Fachkräften, wie internen Qualitätsbeauftragten, Konkurrenten und zuständigen Behörden für Konformitätsbewertungen erweiterten den Wissensstand. Aufbauend auf diese Ergebnisse wurde die Akten-Checkliste für den Ausschuss erweitert und die Organisation von diesem geändert. Ausschuss erstellt. Eine Checkliste für die Überprüfung der Unparteilichkeit wurde erstellt. Nach einer IST-Analyse wurden sieben Verbesserungsvorschläge erarbeitet und die beiden Dokumente der TÜV AUSTRIA, „Konzernrichtlinien zum Thema Verhaltenskodex“ und die „Analyse der Interessenskonflikte für Managementsystem-Zertifizierungen“, erweitert.

Diplomarbeitsposter Müllner Thomas

Thomas Müllner

Masterstudium Business Informatics
Abstract:

Project management is essential to ensure that the results develop according to the plans and target of the project. A general introduction into the earned value management is given by Fleming and Koppelman [FlK02]. Throughout a deterministic approach is used. Following the idea of stochastic modeling for financial options by Merton [Mer73] and Cox, Ross and Rubinstein [CRR79] this thesis considers stochastically modeled risks in the earned value (EV) management. Based on the project context the model proposes a stochastic foundation for project planning, valuation and control which helps the project system to work under uncertainty. Following the Project Management Institute [PMI08] the underlying project risk management is a “systematic process of identifying, analyzing, and responding to project risk.” For this process a graphical “Business Process Modelling and Notation” (BPMN) based process model is provided. The linear approach shows a simplification of the deterministic earned value model. For the latter cumulated values play an important role to track project status. An improvement index to complete projects according to plans was given by Cioffi [Cio06]. In the field of earned value management Vanhouckel and Vandevoorde [VaV07] used it to forecast project duration. Different forecasting methods based on last or average increase are formalized to estimate a project’s duration or cost. The trinomial probabilistic model assumes three possible realizations. One is the default branch for planned value. The others prepare for possible risks and opportunities each with impact and probability. A possible implementation perspective for the trinomial system is given by a data model. To manage the system the “immediate target adaption index” is compared to an improvement vs. do-nothing strategy. The last part of the work covers a Monte Carlo simulation. Thereby the risk management strategies are examined empirically based on the stochastic framework.

Diplomarbeitsposter Nguyen Duy Tan

Duy Tan Nguyen

Masterstudium Business Informatics
Abstract:

Diese Diplomarbeit soll anhand eines praktischen Beispiels zeigen, wie ein Business Continuity Plan erstellt und eingeführt werden kann. In einem pharmazeutischen U nternehmen wird auf einem Disaster Recovery Plan einer IT Abteilung und einer Business Impact Analyse anderer Abteilungen aufbauend ein Business Continuity Plan erstellt, der bei Eintreten einer Katastrophe zur Anwendung kommen soll.

(vor 2018) Institut für Computertechnik

Diplomarbeitsposter Schaat Samer

Samer Schaat

Masterstudium Medizinische Informatik
Abstract:

Im Rahmen des Projektes ARS (Artificial Recognition System) wird ein kognitiver Agent für eine Artificial-Life-Simulation entwickelt. In dieser Arbeit wird ein Modell zur assoziativen aktivierungsbasierten Nutzung der Erinnerungen des ARS-Agenten zur Unterstützung der Wahrnehmung vorgestellt. Einem subjektiven und funktionalen Ansatz der kognitiven Modellierung folgend wird dabei als primärer Zweck der unbewussten Wahrnehmungskategorisierung auf die Erkennung der Objektwirkung auf die körperlichen Bedürfnisse des Agenten fokussiert. Da in ARS die körperlichen Bedürfnisse des Agenten als Triebe repräsentiert sind, wird das Modell dieser Arbeit Triebobjektkategorisierung genannt. Einem integrierten und ganzheitlichen Ansatz folgend berücksichtigt die Triebobjektkategorisierung die Integration von subjektiven Einflüssen. Diese werden im Modell verwendet, um die Kategorisierung durch Verringerung der Unsicherheit bei der Auswahl der geeignetsten erinnerten Exemplare zu unterstützen. Die Integration von Einflüssen in die Triebobjektkategorisierung ist durch die bionischen Konzepte der Top-down Wahrnehmung und Priming inspiriert. Insbesonders ist dies die Verwendung von unbewussten Erwartungen und die assoziative Erinnerungsaktivierung. Für die Integration von Erwartungen werden diese als Kategorisierungskriterien spezifiziert. Zusammen mit dem objektiven Kriterium der Objektähnlichkeit unterstützen erwartungs-basierte subjektive Kriterien die Reduktion der Unsicherheit. Mittels eines aktivierungsbasierten Multi-Kriterien Ansatzes wurde ein generisches Framework entwickelt, um unterschiedliche Kriterien in die Kategorisierung zu integrieren. Die Simulation des Modells zeigt, dass das erwartungsbasierte Kategorisierungskriterium nur bei schwacher oder mehrdeutiger Objekt-Erscheinung relevant ist. Zusätzlich zur Kategorisierung bietet das Modell die Unterstützung der selektiven Aufmerksamkeitssteuerung durch die Bestimmung eines Lustpotentials von Objekten.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Diplomarbeitsposter Frick Klemens

Klemens Frick

Masterstudium Informatikdidaktik
Abstract:

Diese Arbeit befasst sich mit dem Zugang und der Einstellung junger Menschen zur Informatik und wie diese positiv beeinflusst werden können. Es wird dafür die Informatik im gesellschaftlichen, schulischen und universitären Kontext sowie als Fachwissenschaft betrachtet. Studien zur Wahrnehmung sowie curriculare Verankerung der Informatik werden dabei besonders untersucht. Als Methode zur Verbesserung der Umstände wurde im Zuge eines Forschungsaufenthaltes an der Freien Universität Berlin eine Unterrichtsreihe entwickelt, welche sich auf eine innovative Methode zur Planung, Ausführung und Reflexion von Informatikunterricht stützt. Diese Reihe wurde in verkürzter Form an drei Wiener Gymnasien gehalten und die Auswirkungen dieser auf die Perzeption der Informatik evaluiert. Zentrales Ergebnis der Arbeit ist, dass die Einstellung zur Informatik von vielen Einflüssen geprägt ist. Dazu gehören vor allem die Erfahrungen in der privaten und beruflichen Nutzung sowie die Darstellung von Informatik in Medien und im Informatikunterricht in der Schule. Diese Wahrnehmung ist vielfach mit negativen Assoziationen verbunden. Durch den Ansatz, dieser Einstellung in der Schule mit kontextorientiertem Informatikunterricht zu begegnen, konnten positive Erfahrungen gemacht werden. Darüber hinaus konnten Probleme im strukturellen Aufbau des Bildungssystems, deren Ausprägungen sich in der Quantität und der Qualität des derzeitigen Informatikunterrichts widerspiegeln, aufgezeigt werden.

Diplomarbeitsposter Maier Josef

Josef Maier

Masterstudium Informatikmanagement
Abstract:

Das Thema Informatik begleitet uns in der heutigen Zeit unser Leben lang, sei es nun im Privat- oder Berufsleben. Daher ist es sehr wichtig, die dafür erforderlichen Kenntnisse so früh als möglich zu erwerben. Derzeit kann eine Vermittlung der notwendigen Informatikkenntnisse für alle Schüler der Allgemeinbildenden Höheren Schule (AHS) aber nur in der 9. Schulstufe gewährleistet werden. Der für den Informatikunterricht in dieser Schulstufe vorhandene Lehrplan lässt den Schulen bzw. LehrerInnen relativ viel Spielraum in der Unterrichtsgestaltung. Daher stellen sich die Fragen, was in diesem Gegenstand wirklich unterrichtet wird, ob es Trends zu bestimmten Inhalten und Methoden gibt, und ob dieser Unterricht für die informatische Bildung der Schüler ausreicht um für das spätere Berufs- und Privatleben angemessen vorbereitet zu sein oder ob eine Standardisierung des Informatikunterrichtes notwendig wäre. Diesen Fragen wurde erfolgreich versucht mittels Ergebnissen aus mehreren qualitativen Interviews sowie einer quantitativen Schüler- und Lehrerbefragung an allen AHS-Schulen Österreichs nachzugehen. Demnach ist beinahe jeder Informatikunterricht der 5. Klasse AHS vom anderen verschieden, wobei Ähnlichkeiten im Bezug auf manche Unterrichtsinhalte vorhanden sind. So sind die Bereiche Textverarbeitung, Tabellenkalkulation und Präsentation Inhalt fast jedes Informatikunterrichtes. Wie dieser Arbeit aber entnommen werden kann, wäre eine Standardisierung des Informatikunterrichtes empfehlenswert.

Diplomarbeitsposter Sagmeister Christian

Christian Sagmeister

Masterstudium Informatikmanagement
Abstract:

Kontext: Mit Verwendung neuer Computertechnologie entstehen neue Herausforderungen für die Aufbereitung von Wissen. In den letzten Jahren kommen immer mehr innovative Lehr- und Lernformen zum Einsatz, welche auch einen erhöhten Anspruch an die jeweiligen E-Learning Systeme stellen. Durch den verstärkten Einsatz dieser Lernformen im Unterricht entstehen mitunter auch neue Methoden der Didaktik in der Vermittlung von Fachwissen im Hochschulbereich. Fragestellungen: Didaktische Fachmodelle sind zumeist auf ihr Fach beschränkt. Als eines der wenigen fachdidaktischen Modelle beschäftigt sich das Technological Pedagogical Content Knowledge Framework, kurz TPACK, mit dem Thema Interdisziplinarität im E-Learning Bereich. Die Arbeit analysiert die im TPACK vorgestellten Werkzeuge zum Thema Interdisziplinarität im Detail und beschreibt mit Hilfe von Experteninterviews allgemeine Anforderungen, welche bei der Einführung von E-Learning zu beachten sind. Methodik: Für die Analyse der Anforderungen an ein E-Learning System werden zunächst die unterschiedlichen Arten von Lerntheorien herausgearbeitet. Die Forschungsfragen werden mittels Leitfadeninterviews, Dokumentenanalyse des TPACK Frameworks und unterschiedlicher Literatur beantwortet. Ergebnisse: Bezogen auf die Interdisziplinarität streicht das TPACK Framework sieben kognitive Werkzeuge (Perceiving, Patterning, Abstracting, Embodied Thinking, Modeling, Deep Play und Synthesizing) hervor, welche eine interdisziplinäre Betrachtung von E-Learning Komponenten ermöglichen. Die Definition von E-Learning zeigt seitens der Experten eine weite Bandbreite. Zumeist nur als administratives Hilfsmittel gesehen kann es bei richtigem Einsatz auch einen anderen Blickwinkel auf das Fachthema bieten. Da E-Learning kein Out-of-the-box system ist erfordert es eine intensive Auseinandersetzung seitens des Lehrenden um die richtige Balance zwischen den Komponenten des TPACK Modells für sich zu finden.

Diplomarbeitsposter Schwarz Daniel

Daniel Schwarz

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Diese Arbeit bietet einen Überblick sowie eine Analyse des derzeitigen Stands des wissenschaftlichen, als auch des breiteren gesellschaftlich-medialen Diskurses der Kontroverse um gewalthaltige Computerspiele (gemeinhin bekannt unter der sogenannten „Killerspiel-Debatte“), eine Vorstellung der Medienwirkungsforschung, gefolgt von einem Blick auf historische Wirkungsdebatten sowie eine medienpädagogische Betrachtung des Computerspiels. Der Kontext der Arbeit liegt vor allem darin, dass ich einerseits als Pädagoge, andererseits als Computerspieler mein Wissen zu diesem Themenbereich vertiefen wollte. Die Prüfung der naheliegenden Hypothese, die Nutzung gewalthaltiger Medien – im speziellen Computerspielen – ziehe negative Auswirkungen – insbesondere was reale Aggression und gewalttätiges Verhalten betrifft – nach sich, bildet eine zentrale Frage, und hier kann Entwarnung gegeben werden, da sie im Wesentlichen nicht bestätigt wird. Darüber hinaus gilt es, meine eigene leitende These zu stützen, wonach die Voraussetzungen für eine objektive und rational geführte Debatte, bedingt durch eine starke Lagerbildung in Befürworter und Gegner vorgenannter Hypothese sowie Einflussnahmen diverser Interessensgruppen, derzeit kaum gegeben sind. Im historischen Kontext kann ich eine Wiederholung der Geschichte, bezogen auf die Reaktionen gegenüber neuen Medien, feststellen, während medienpädagogisch die Unersetzbarkeit elterlichen Engagements die Kernaussage bildet. Die Analyse des Diskurses mündet in der Entwicklung einer Typologisierung der Diskursteilnehmer, als auch einem Entwurf eines Diskursmodells. Methodisch verfolge ich einen geisteswissenschaftlich-phänomenologischen Ansatz. Dies, sowie die Quellenlage des Themas, implizieren eine interdisziplinäre Herangehensweise. Die Quellen im wissenschaftlichen Bereich stellen Überblicksdarstellungen sowie ausgewählte Fachbeiträge, im populär-medialen Bereich vorwiegend Zeitungsartikel sowie Onlineforendiskussionen dar.