EPILOG Sommersemester 2012

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Causevic Emir

Emir Causevic

Masterstudium Technische Informatik
Abstract:

The extended use of dependable real time systems imposes new challenges on the Time Triggered Architecture (TTA). One open challenge in the TTA is making it possible for receivers to verify the origin and the integrity of the received data in the presence of the malicious attackers. This is complicated by the fact that in the TTA, messages must be delivered within an exact time frame. With increase of the connectivity of systems beyond their traditional boundaries (e.g., connecting in-vehicle electronics system of a car to the Internet in order to enable system updates) system security and data integrity are becoming key issues. Ensuring integrity of the data can become a safety-relevant system property in safety-critical applications e.g. false sensor values or control commands. To enable sender authentication and integrity protection, we will develop in this thesis a TTA security layer that includes a secure broadcast algorithm. In the scope of this master thesis, several contributions to a security layer for the TTA will be explored. We will implement a broadcast authentication protocol supporting sender authentication and message integrity protection. The access to the global time allows the efficient implementation of various security mechanisms. Thus, we will establish secure broadcast by implementing Time Efficient Stream Loss-tolerant Authentication (TESLA). TTA is a good platform for the implementation of TESLA, since TESLA is based on time synchronisation between the nodes. TESLA uses entirely symmetric cryptographic functions, but achieves properties of efficient asymmetric cryptography. We will evaluate feasibility and performance of the implemented solution and present achieved results.

Diplomarbeitsposter Elshuber Martin

Martin Elshuber

Masterstudium Technische Informatik
Abstract:

Time-Triggered Ethernet (TTE) is an extension to standard Ethernet, which aims to support mixed critically applications on a single, but possibly replicated, communication channel. Currently different solutions for end systems are available, both in hardware and in software. A drawback compared to standard Ethernet is the need to use special and expensive switching hardware to provide fault containment services, and to achieve low jitter for the transmission delays of time-triggered frames. Jitter is a critical factor for the quality of the global time base needed to be established for time-triggered communication. This thesis evaluates the ability of realising mixed-critically distributed embedded real-time systems using TTE based on a Commercial off-the-Shelf (COTS) Ethernet router. Different approaches (e.g., use of virtual links, use of the processor in the router to forward messages according to a time-triggered schedule) will be analysed. One approach is selected and employed in experiments to quantify the fault isolation, performance and predictability of the ensuing system. The methods discussed in this work allow timely and reliable time-triggered Ethernet frames to be sent concurrently with classic event-triggered Ethernet frames using a COTS Ethernet router with an updated firmware. A discussion on how to extend the proposed approaches, in order to implement the complete TTE standard is included.

Diplomarbeitsposter Hepp Stefan

Stefan Hepp

Masterstudium Technische Informatik
Abstract:

Java Bytecode wird üblicherweise in einer Java Virtual Machine (JVM) auf einem Desktop PC ausgeführt. Meistens wird der Code von der JVM interpretiert oder mittels eines Just-In-Time (JIT) Compilers in Maschinencode übersetzt. Basierend auf Profiling-Informationen werden kritische Stellen zur Laufzeit bei Bedarf optimiert. Java Prozessoren wie der Java Optimized Processor (JOP) können hingegen Java Bytecode direkt ausführen ohne zusätzlich einen Interpreter oder JIT Compiler zu benötigen. Die Worst-Case Execution Time (WCET) ist bei Echtzeitsystemen wichtiger als die Average-Case Execution Time (ACET). Falls die WCET eines Echtzeit-Prozesses zu hoch ist, werden Optimierungen während der Entwicklung benötigt um den Worst-Case Pfad im Programm zu optimieren und damit die WCET zu reduzieren. In dieser Diplomarbeit wird gezeigt, wie eine Worst-Case Analyse (WCA) verwendet werden kann um einen Optimizer zu unterstützen. Des weiteren werden die Auswirkungen des Method Cache auf die Effizienz von Optimierungen betrachtet. Ein bestehendes WCET Analysetool wird verwendet um Optimierungen für JOP zu lenken. Als zentrale Optimierung wird Method Inlining verwendet, wobei versucht wird eine Verschlechterung der WCET durch höhere Cache-Miss Kosten zu vermeiden. Ein Framework wurde erstellt um die Optimierungen und die Worst-Case Analyse auf den selben Daten arbeiten zu lassen, damit die WCA während der Optimierung mit geringen Overhead mehrfach durchgeführt werden kann. Um die Auswirkungen der Optimierungen zu testen wurden mehrere Benchmark-Anwendungen optimiert und analysiert. Die WCET, die ACET und die Codegröße der optimierten Anwendungen wurden mit den nicht optimierten Versionen verglichen.

Arbeitsbereich (vor 2018) Embedded Computing Systems

Diplomarbeitsposter Birner Michael

Michael Birner

Masterstudium Technische Informatik
Abstract:

Within the past 20 years the speed of processors has grown much faster than that of memories. To bridge the resulting performance gap, caching has been introduced. This thesis describes the completely redesigned memory layer for the SPEAR2 core which serves as base for the integration of an appropriate cache controller. SPEAR2 is a RISC architecture that is especially suited to be used in embedded systems. In order to expand the operation area of the processor and to use the full address space provided by the architecture, the processor must be equipped with additional storage capacity, i.e., data and instruction memory need to be excluded into an external RAM module. The benefit of this approach comes at the cost of a performance degradation as the SPEAR2 pipeline suffers from additional wait states caused by the increased latency resulting from external memory accesses. After providing a detailed theoretical background concerning the fundamental aspects of caching together with more sophisticated techniques, this master thesis proceeds with simulations in order to find an appropriate caching strategy under given constraints. A novel simulation environment (SPEAR2SIM) for the SPEAR2 instruction set architecture that allows an efficient performance assesment of different caching strategies from which three candidates are selected is used for this purpose. Their simulation results will be compared against the results of an experimental study in VHDL to be able to select the best adapted caching policy. As a result of this thesis, a new prototype of the SPEAR2 processor with a new memory layer that can be equipped with three different cache controllers (direct mapped, fully associative and two-way set associative) is available.

Diplomarbeitsposter Fuchs Bernhard

Bernhard Fuchs

Masterstudium Technische Informatik
Abstract:

The objectives of the present thesis have been the selection of a modern programmable DSP as well as the identification, derivation, evaluation and experimental validation of fault- tolerance (FT) mechanisms such as software-based FT, an external FT-controller as well as a combination thereof, to be applied to this component in order to establish a spaceborne DSP- system satisfying payload dependability requirements. Typical applications of such a system are data and image processing, including filtering, decimation, coding and spectral analysis. Careful selection of FT-methods as well as optimal alloying of FT- and DSP-algorithms has been shown to be crucial for maintaining the full performance of either algorithm class and for ensuring software-product maintainability. Statistical measurements performed with the most promising candidate FT-mechanisms integrated along with typical DSP-algorithms have shown that software-only solutions, although economically attractive, fail in providing the required vavailability in combination with the desired processing power, while these goals can be fully met, if software FT-techniques are combined with an external FT-controller.

Diplomarbeitsposter Resch Stefan

Stefan Resch

Masterstudium Technische Informatik
Abstract:

Hardware designs intended for use in high reliability missions are required to behave correctly under all circumstances. One way of establishing their validity is by (i) stating a specification in terms of a formal framework and (ii) proving them correct within the framework. However, a proof gap between the formally stated design and the actual specification in terms of a hardware description language remains. In this thesis, a novel hardware description language, called Dhdl, is introduced. Dhdl is tailored to the formal modeling and analysis framework defined by Függer in (see Matthias Fuegger, Analysis of On-Chip Fault-Tolerant Distributed Algorithms, PhD thesis, Vienna University of Technology, 2010). Thereby, it closes the gap between formal proof methods and hardware implementation. With its semantically defined timing model it is even possible to translate traces back to the modeling and analysis framework. The ability to specify timing properties within the design itself is a major advantage of Dhdl to currently popular hardware description languages like VHDL. To demonstrate the wide applicability of Dhdl, both a synchronous (a simple coffee machine) and an asynchronous hardware design, namely the pulse generation algorithm of DARTS, have been implemented and their timing constraints have been analyzed.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Brunner Markus

Markus Brunner

Masterstudium Informatikmanagement
Abstract:

Bildungsstandards und Kompetenzorientierung sind zwei zentrale Begriffe der gegenwärtigen Bildungsdiskussion. Hierbei können eine nachhaltige Qualitätssteigerung der Ausbildungsgänge sowie eine bessere Vergleichbarkeit von Bildungsabschlüssen als die erklärten Ziele angesehen werden. Das Bundesministerium für Unterricht, Kunst und Kultur hat im Rahmen des Projektes "Bildungsstandards in der Berufsbildung" Kompetenzmodelle, Deskriptoren und prototypische Unterrichtsbeispiele - nicht zuletzt auch für den Fachbereich Informationstechnologie (IT) einer Höheren Technischen Lehranstalt (HTL) - erarbeitet. Mit der Umsetzung dieses Projektes kommt ein Paradigmenwechsel auf das Schulwesen zu, der eine neue pädagogische Grundlage erfordert. Diese Arbeit geht der Frage nach, wie sich ein didaktisches Gesamtkonzept gestalten muss, das den Anforderungen der Bildungsstandards im Allgemeinen und der Kompetenzorientierung im Besonderen gerecht wird. Im Fokus steht hierbei der Kompetenzbereich Industrielle Informationstechnik (INIT) einer IT-HTL. Die Durchführung erfolgt am Beispiel der HTL-Krems. Die Grundlage der Arbeit bildet eine umfassende Literaturrecherche. Im zweiten Schritt werden durch den Einsatz der Methode "Analyse" die Ausgangssituation sowie die Rahmenbedingungen untersucht und die Erkenntnisse interpretiert. Letztendlich werden im dritten Schritt die gewonnen Ergebnisse in die Unterrichtskonzeption überführt. Als zentrales Ergebnis kann ein Vorschlag zur Umsetzung der Bildungsstandards im Kompetenzbereich INIT angesehen werden. Die Konkretisierung erfolgt anhand ausgewählter Unterrichtseinheiten für die Mikrocontrollertechnik. Der Einsatz von schülerzentrierten Unterrichtsmethoden wird aufgezeigt. Bei den Übungseinheiten werden Maßnahmen zur Förderung der intrinsischen Motivation und der Kreativität implementiert. Generell zeigt sich, dass der Kompetenzbereich INIT überaus anspruchsvolle Lernziele formuliert, deren Umsetzung auf mehreren Ebenen herausfordernd ist.

Diplomarbeitsposter Brunner Herbert

Herbert Brunner

Masterstudium Business Informatics
Abstract:

Die Anzahl an neuen Software-Produkten ist heute kaum mehr zu überblicken, wobei Software häufig fehlerhaft auf den Markt gebracht wird. Diese Fehler können die Funktion von Software beeinträchtigen, da potenzielle Angreifer dadurch Software kompromittieren und Schaden an sensiblen Daten anrichten können. Deshalb muss Software auf Sicherheitslücken getestet werden, zum Beispiel durch die Verwendung von automatisierten Tests mit der Hilfe von Fuzzern. Das Problem bei automatisierten Sicherheitstests ist die Anzahl an falsch positiven Testergebnissen, welche nachträglich vom Tester überprüft werden müssen. Im Zuge dieser Arbeit werden Sicherheitstestergebnisse mit Data-Mining-Methoden analysiert. Diese sind Association-Mining, Klassifikation, Clusteranalyse (K-Means) und Text-Mining. Durch Anwendung dieser Data-Mining-Methoden wird die Anzahl der falsch erkannten Fehler des Testwerkzeugs reduziert und die Arbeit der Sicherheitstester vereinfacht.

Diplomarbeitsposter Dobner Stefan

Stefan Dobner

Masterstudium Business Informatics
Abstract:

Mit der umfassenden Verbreitung der elektronischen Datenverarbeitung in Unternehmen steigt der Bedarf, Identitätsdaten computergestützt zu verwalten. Diese Daten müssen gespeichert werden, verfügbar sein und sich flexibel in bestehende und neue Geschäftsprozesse integrieren lassen. Die TU Wien setzt bei der Authentifizierung von Studierenden auf Papierausweise und auf Benutzername/Passwort-Kombinationen für die digitale Authentifizierung. Für ortsgebundene und automationsunterstützte Anwendungen, wie beispielsweise einem Schließsystem, existiert an der TU Wien daher keine geeignete Authentifizierungsmethode. Die Einführung neuer Ausweise als Chipkarten könnte dieses Problem lösen, wofür sich Smartphones oder biometrische Lösungen als derzeit noch nicht umsetzbar darstellen. Eine Integration in das hauseigene Informationssystem TISS und ein hoher Reifegrad der damit verbundenen Prozesse sind somit anzustreben. Im Rahmen der vorliegenden Arbeit wird der Studierendenausweis, der als amtlicher Lichtbildausweis gilt, einer formalen Betrachtung unterzogen. Desweiteren werden Anforderungen an einen neuen Ausweis sowie Auswirkungen auf bestehende Verwaltungsprozesse der TU Wien beschrieben. Anhand einer Fallstudie mit Experteninterviews wird gezeigt, dass sich das Identitätsmanagement der TU Wien von jenem herkömmlicher Unternehmen unterscheidet. Autonome Organisationseinheiten, gesetzliche Rahmenbedingungen und Stakeholder erschweren die Planung und Umsetzung von Änderungen im Identitätsmanagement. Die Anzahl der Identitäten ist hoch, fluktuiert stark, und bei der Zuweisung von Rollen zeigen sich fließende Übergänge zwischen Studenten und Mitarbeitern. Verwaltungsprozesse sind geradlinig, erfordern aber in Einzelfällen Flexibilität. Richtlinien und Dokumentationen im Sinne einer Identity Management Architecture können helfen, diese Komplexität zu reduzieren und die Kommunikation zu vereinfachen, wodurch für zukünftige Projekte die Erfolgswahrscheinlichkeit erhöht wird.

Diplomarbeitsposter Fritsch Barbara

Barbara Fritsch

Masterstudium Visual Computing
Abstract:

Die Microsoft Kinect war als eine Steuerung für Spiele auf der Konsole Xbox 360 geplant. Rasch entwickelte sich aus dem geschlossenen ein offenes System, welches nun vom PC aus betrieben werden kann. Maßgebend für diesen Schritt war eine Community, die binnen kurzer Zeit PC-Treiber für die Kinect veröffentlichte. Daraus ergibt sich die Möglichkeit, die Kinect allgemein als Tiefenkamera zu nutzen. Faktoren, die ihre hohe Beliebtheit erklären, sind der vergleichsweise günstige Preis und die Funktionalität, brauchbare Tiefendaten in Echtzeit durch Triangulation zu ermitteln. In der Arbeit wird die Funktionsweise der Kinect erörtert. Dies inkludiert die Komponenten der Hardware, die Berechnung der Tiefendaten, sowie eine Evaluierung der Stärken und Schwächen der Kinect. Die zentralen Fragen, die in dieser Arbeit abgehandelt werden, sind: „In welchen Anwendungsszenarien kann die Kinect eingesetzt werden?“ und „Wo sind ihre Grenzen?“ Zu diesem Zweck werden die Treiber CL NUI, OpenKinect, OpenNI, sowie das schließlich von Microsoft selbst veröffentlichte Kinect-SDK verglichen. Darauf aufbauend werden einige Middleware-Implementierungen untersucht, die z.B. Skeleton-Tracking oder Verfolgungen von Handbewegungen ermöglichen. Abschließend wird beispielhaft demonstriert, wie die Tiefendaten der Kinect in Frameworks und Applikationen angewendet werden können.

Diplomarbeitsposter Kurz Reinhard

Reinhard Kurz

Masterstudium Medieninformatik
Abstract:

Touchscreens finden in den letzten Jahren vermehrt Verbreitung als Eingabegeräte für Smartphones, Tablets und Kiosk-Systeme. Von den technisch verfügbaren Berührungsparametern verwenden etablierte Anwendungen nahezu ausschließlich die Koordinaten der Berührungspunkte. Zusätzlich können abhängig von der verwendeten Technologie die Größe und Form der Kontaktfläche, deren Orientierung, die Nähe des Fingers zum Display sowie der auf die Oberfläche ausgeübte Druck erfasst werden. Es wird untersucht, welche der vorhandenen Berührungsparameter für eine Erweiterung des Gestenvokabulars an touchsensitiven Oberflächen einen potentiellen Mehrwert bringen. Für diese wurden mehrere Anwendungsszenarien entwickelt, welche mögliche Einsatzgebiete zeigen. Basierend auf der Größe der Fingerauflagefläche wurde eine neue Touchscreen-Geste entwickelt und im Rahmen dieser Diplomarbeit als Rock Zoom benannt. Die prototypische Implementierung verändert die Bildgröße proportional zur Fingerkontaktfläche. Im Rahmen eines User Tests mit neun Testpersonen werden die Eigenschaften von Rock Zoom im Vergleich zur bereits etablierten Pinch-Geste an einem Tabletop evaluiert. Die beiden Gesten Rock Zoom und Pinch Zoom wurden sowohl in einer diskreten als auch kontinuierlichen Implementierung untersucht. In der kontinuierlichen Form ist eine stufenlose Einstellung der Bildgröße möglich, wogegen die diskrete Variante die Bildgröße in vordefinierten Zoomfaktoren verändern kann.

Diplomarbeitsposter Kuschnigg Stefan

Stefan Kuschnigg

Masterstudium Medieninformatik
Abstract:

In den letzten Jahren haben mobile Finanzdienste für Banken und deren Kunden massiv an Bedeutung gewonnen. Einerseits bieten sie den Banken einen weiteren Vertriebskanal und damit ein zusätzliches Standbein für die Kundenbetreuung, andererseits können Kunden weitgehend unabhängig von Ort und Zeit Bankgeschäfte durchführen. Diese Arbeit befasst sich mit dem Entwurf und der Evaluierung der Benutzeroberfläche einer m-Banking Applikation für Smartphones mit berührungsempfindlichen Bildschirmen (Touchscreens). Dabei werden die Besonderheiten mobiler Geräte aus der Sicht des Interaktionsdesigns berücksichtigt und ein User-Centered Design (UCD) Prozess angewendet. Mobile Geräte stellen durch ihre Bauform und Verwendungsweise spezielle Anforderungen an Benutzeroberflächen. In der vorliegenden Arbeit werden die Besonderheiten dieses Mediums vorgestellt und dafür geeignete Interaktionsprinzipien sowie Methoden für Entwurf und Evaluierung erläutert. m-Banking ist ein komplexer Vorgang, dessen einzelne Funktionen in die Kategorien mobile Kontoführung, mobile Depotführung und mobile Finanzinformationen eingeteilt wurden. Basierend auf einer Literaturrecherche wurden die wichtigsten Anwendungsfälle aus Sicht der Bank und der Kunden erarbeitet, um diese beim Entwurf der Oberfläche entsprechend zu berücksichtigen. Anschließend wurden bestehende e-Banking und m-Banking Lösungen analysiert und daraus die aktuellen Prozesse und Praktiken abgeleitet. Basierend auf diesen Grundlagen wurde ein Referenzentwurf für m-Banking auf Smartphones mit berührungsempfindlichen Bildschirmen erarbeitet. Als Kernzielgruppe für die entwickelte m-Banking Applikation wurden junge und agile Early Adopter sowie langjährige e-Banking Kunden herangezogen. Der Entwurf der Benutzeroberfläche wurde iterativ erarbeitet, mehrmals mit Benutzern aus der Zielgruppe getestet und stellt somit eine erfolgreich evaluierte Lösung für m-Banking Applikationen auf Smartphones mit Touchscreens dar.

Diplomarbeitsposter Malnowicz Oskar

Oskar Malnowicz

Masterstudium Software Engineering & Internet Computing
Abstract:

Die immer schneller wachsende Informationsgesellschaft erfordert eine globale Vernetzung von Rechnersystemen. Dadurch sind die Entwickler gefordert, neue Systeme und Pro- tokolle zu entwerfen. Diese Rechnersysteme müssen miteinander kommunizieren. Dadurch steigt die Komplexität, wodurch Sicherheitslücken entstehen und durch Angreifer ausgenützt werden können. Um sich gegen die Flut an Angriffen schützen zu können, ist es erforder- lich, Protokolle und Services automatisiert zu testen. Da es jedoch nicht möglich ist, alle Fehler zu finden, müssen kritische Anwendungsfälle, wie etwa die Authentifizierung und Autorisierung, gefunden und getestet werden. Das Ziel dieser Arbeit ist es, anhand eines konkreten Beispiels, dem An- und Abmelden eines Benutzers, beim Hypertransfer Text Protokoll eine automatisierte grammatikalische Analyse durchzuführen. Die Ergebnisse der grammatikalischen Analyse zeigen die kritischen Änderungen der Benutzerdaten im Verlauf der Zeit. Die Ergebnisse können anschliessend für das automatisierte Testen von kritischen Anwendungsfällen verwendet werden.

Diplomarbeitsposter Schuster Felix

Felix Schuster

Masterstudium Medizinische Informatik
Abstract:

Nowadays Closed Circuit Television (CCTV) systems are transmitting the video signal to a dedicated control center where human beings are observing the video streams continuously. Most of the time there are no abnormal activities which can be detected - moreover video frames do not even change. However, due to the continuous video transmission, resources like network bandwidth and processing power are wasted. In addition, concentration of security personnel decreases rapidly. The proposed approach aims at performing on-the-spot image analysis and image transmission over building automation networks (BAN). The desired solution is to transmit video data just in case. If an irregular or unusual situation is detected by the camera, it shall send the related video sequence over a BAN to the control center. Video transmission should be stopped during idle times. Since current BAN technologies are not capable of handling huge amounts of data, the master thesis focuses on solutions in transmitting video sequences over narrow bandwidth control networks that are typically used for the exchange of process data in building automation systems. Network technologies used in the building automation domain (e.g., twisted pair, powerline, radio frequency) provide only limited bandwidth. Although on-the-spot image analysis decreases the amount of data to be transmitted, further improvements and special developments are necessary. Therefore, this master thesis had the objective to provide mechanisms that support a transmission of on-demand video sequences over low bandwidth network media. The thesis covers possible use cases of a possible CCTV/BAN integration. Next, an analysis of the transmission properties of different BAN protocols is given. Afterwards, an architecture for the integration is proposed and protocol extensions for wired and wireless BAN technologies are developed, prototypically realized and evaluated.

Diplomarbeitsposter Starzinger Tanja

Tanja Starzinger

Masterstudium Informatikmanagement
Abstract:

Im Zuge der österreichischen E-Government-Initiative wurde ein ELAK-System entwi-ckelt, welches seitdem in der öffentlichen Verwaltung eingesetzt wird. Die Anforde-rungsanalyse für das derzeit im Einsatz befindliche ELAK-System liegt bereits zehn Jahre zurück. Seither hat es aus technologischer und organisatorischer Sicht viele Neue-rungen gegeben, wodurch eine neuerliche Anforderungsanalyse durchgeführt werden sollte, bevor mit Weiterentwicklungen des ELAK-Systems begonnen wird. Die durchgeführte Anforderungsanalyse basiert auf Literatur des österreichischen Ver-waltungsverfahrensrechts, des E-Government-Gesetzes, der Büroordnung sowie dem Leistungskatalog für das derzeitige ELAK-System. Dieses ELAK-System befindet sich in den österreichischen Bundesministerien im Einsatz. Für die vorliegende Arbeit wurde nicht das aktuelle ELAK-System analysiert, sondern eine Anforderungsanalyse von Grund auf neu durchgeführt, um somit unbeeinflusst vom aktuellen ELAK-System An-forderungen sammeln zu können. Für den europäischen Aspekt wurden die Verwal-tungssysteme von Deutschland und der Schweiz herangezogen und davon Anforderun-gen für ein österreichisches Software-System für elektronische Akten abgeleitet. Im Rahmen dieser Arbeit wurden funktionale Anforderungen für die Verwaltungsberei-che Eingang, Bearbeitung, Erledigung, Abfertigung und Versendung, elektronisches Archiv, Infrastruktur und Administration gesammelt. Außerdem wird gezeigt, wie Auf-bau- und Ablauforganisation einer Verwaltung im Software-System für elektronische Akten abgebildet werden können. Im didaktischen Teil dieser Arbeit wird die Vorgehensweise für die Vorbereitung einer Schulung bei der Einführung eines Software-Systems für elektronische Akten in einer österreichischen Verwaltung beschrieben.

Diplomarbeitsposter Steffan Marco

Marco Steffan

Masterstudium Technische Informatik
Abstract:

Gebäudeautomationssysteme dienen in erster Linie der Erzeugung eines komfortablen Raumklimas bei gleichzeitiger, ressourcenschonender Nutzung der zur Verfügung stehenden Energie. Geht man davon aus, dass funktionale Sicherheit (Safety) etwa für Brandmeldeanlagen oder Systemsicherheit (Security) für Zutrittskontrollen erforderlich sind, werden diese Anforderungen durch eigenständige Systeme realisiert, die (im besten Fall) über ausgewählte Schnittstellen mit einem vorhandenen Gebäudeautomationssystem kommunizieren. Integrierte Systeme, die bereits "nativ" funktionale Sicherheit zur Verfügung stellen, sind derzeit kaum verfügbar. Diese Arbeit versucht einen Ansatz zu schaffen, die Gebäudeautomationstechnologie KNX um funktionale Sicherheit zu erweitern. In Übereinstimmung mit den Standards IEC 61508 (Funktionale Sicherheit sicherheits-bezogener elektrischer / elektronischer / programmierbarer elektronischer Systeme) und ISO 13849 (Sicherheit von Maschinen - Sicherheitsbezogene Teile von Steuerungen) wird eine mögliche Architektur erarbeitet, um einen Sicherheitsintegritäts-Level 3 (SIL3) laut IEC 61508 zu erreichen. Systemsicherheit bleibt dabei unberücksichtigt. SIL3 impliziert eine ausreichende Unterstützung der zugrunde liegenden Hardware (Fehlertoleranz), eine Standard-konformeDokumentation aller Entwicklungsschritte sowie Software, um Fehler in der Hardware und dem Kommunikationssystem zu erkennen. Ziel dieser Arbeit ist nicht eine vollständige Ausarbeitung aller Erfordernisse gemäß IEC 61508, sondern eine Erweiterung zu bereits bestehenden Ansätzen in diesem Umfeld zu schaffen. Im Zuge dieser Arbeit werden Mechanismen, die Fehler im Kommunikationssystem erkennen, in Abstimmung mit IEC 61784-3 (Industrielle Kommunikationsnetze - Profile - Teil 3-1: Funktional sichere Übertragung bei Feldbussen) diskutiert, Architekturen für ein SIL3 konformesKNX-System vorgestellt und sich daraus ergebende Anforderungen an die Hard- und Software erarbeitet.

Diplomarbeitsposter Trabitsch Roman

Roman Trabitsch

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit beschäftigt sich mit dem Themenbereich elektronischer Akt (ELAK), der als zentraler Eckpfeiler für viele weitere Anwendungen des E-Government angesehen wird. Schwerpunkt der Arbeit liegt auf der umfassenden Anforderungsanalyse, dem Design und der Implementierung eines elektronischen Verwaltungssystems für Verwaltungsbehörden, mit dem Akten in elektronischer Form verwaltet und bearbeitet werden sollen.

Diplomarbeitsposter Vallon Raoul

Raoul Vallon

Masterstudium Software Engineering & Internet Computing
Abstract:

Although agile and lean software development dates back to early 2000, multi-project management in this field has only started to evolve recently. Publications, however, tend to deal with very specific approaches that lack practicability such as e.g. organization-wide agile and lean transformations. This observation is the motivation for a further investigation and evaluation of lean-agile concepts in a multi-project management environment. The thesis begins with an analysis of known traditional process frameworks to draw conclusions for lean and agile practices. Then known lean-agile multi-project management approaches in literature and research are examined. Furthermore, a case study is conducted covering three projects in a distributed development environment, where the lean-agile practice in use is evaluated and improved with regard to the theoretic concepts. In conclusion, the adoption of lean-agile values in traditionally grown and run organizations is discussed in light of findings from the case study and the literature review. Results show that almost all regular traditional multi-project management goals also have a lean-agile counterpart. However, the ways in which they are achieved are completely different, e.g. regarding hierarchies and styles of management. The application in traditional organizations imposes several constraints, e.g. former project managers posing as "fake Scrum Masters" that handicap the team's self-management. The review of the lean-agile approaches revealed that the shared highest goal is to provide transparency across the value stream, which is especially important in a multi-project environment. Simple communication in daily meetings is the preferred means to deal with impediments. Moreover, transparency is achieved via incremental planning and prioritization in all the examined approaches. Finally, a best practice lean-agile multi-management approach is suggested combining several ideas.

Diplomarbeitsposter Wagner Thomas

Thomas Wagner

Masterstudium Software Engineering & Internet Computing
Abstract:

Fehlerdatenbanken, die eine umfassende Aufzeichnung von aufgetretenen Fehlern und deren Behebung beinhalten, werden von Software Entwicklern häufig als Dokumentationsquelle herangezogen. Wird eine derartige Datenbank nicht von Beginn an geführt, können wichtige Informationen verloren gehen. Dieser Umstand kann sich negativ auf Wartbarkeit und Qualität des Software Produktes auswirken. Im Zuge dieser Arbeit wird ein Tool entwickelt, das es ermöglicht, solch eine Fehlerdatenbank im Nachhinein automatisiert zu erstellen. Die benötigten Informationen werden aus dem Quellcode Management System, das sämtliche Quellcode Dateien des Software Projektes verwaltet, bezogen. Dabei wird auf Techniken zur Klassifizierung von Log Nachrichten und zur Bestimmung von korrektiven Wartungsmaßnahmen am Quellcode zurückgegriffen. Mit Hilfe des entwickelten Tools werden beispielhafte Fehlerdatenbanken für verschiedene Open-Source Projekte erstellt. Dadurch wird aufgezeigt, dass die automatisierte Erstellung einer Fehlerdatenbank generell möglich ist. Durch eine vergleichende Analyse bereits bestehender und automatisch generierter Datenbanken wird gezeigt, dass durch die richtige Konfiguration der Klassifizierung, eine Vielzahl der manuell erstellen Fehlerbeschreibungen auch in den automatisch erstellten Fehlerdatenbanken zu finden sind. Ein manueller Vergleich verdeutlicht jedoch auch, dass bei einigen Informationen der Fehlerbeschreibungen Kompromisse gemacht werden müssen. Mithilfe des erstellten Tools kann eine Fehlerdatenbank für jedes beliebige Software Projekt, unabhängig von Programmiersprache und Entwicklungsumgebung, erstellt werden. Voraussetzung dafür ist die Verfügbarkeit eines Quellcode Management Systems. Die Ergebnisse werden in einem generischen Format gespeichert und können anschließend in jedem beliebigen Fehler Management System importiert werden. Dadurch steht Entwicklern eine Dokumentationsquelle mit zusätzlichen Informationen (z.B. Code Ausschnitten) zur Verfügung.

Diplomarbeitsposter Waldhans David

David Waldhans

Masterstudium Software Engineering & Internet Computing
Abstract:

Nowadays e-participation platforms are not very widespread in Austria. Furthermore Austrian ad- ministrations lack a single point of contact whereby citizens can report their requests and concerns regarding public nuisances, such as defective traffic lights, potholes, etc. However, public issue repor- ting systems supported by geographical information systems and smartphones, like the Great Britain based FixMyStreet, show that demand exists for such platforms and single points of contact. On a small scale – though not nationwide – first developments aimed at providing homogenous channels for a citizen-to-administration communication can be noticed in Germany and Austria as well. Nevertheless, all of these systems lack support for automated determination of responsibilities for the reported problems as well as mechanisms regarding a flexible integration with existing administration IT infrastructure. These features are considered essential for a nationwide adoption of public issue reporting systems. The goal of this thesis is therefore to draft a public issue reporting system which offers the aforemen- tioned features and is supported by geographical information systems and by smartphones. The first step towards reaching this goal is to get an overview of relevant topics via literature research and a survey of expert opinions in the fields of e-government and public issue reporting. Based on the findings, a requirements catalogue is generated. This catalogue is used to devise a list of criteria providing the basis for an evaluation of existing public issue reporting systems with regard to their suitability for a nationwide adoption in Austria. Using the aforementioned criteria, three open source systems are evaluated, and some of the unfulfilled requirements found during this evaluation process are further specified and then drafted. As a final step, a prototype of a graphical user interface is designed in order to demonstrate how such a platform can be realised.

Diplomarbeitsposter Weisskopf Philipp

Philipp Weisskopf

Masterstudium Business Informatics
Abstract:

Durch die aktuelle Wirtschaftslage kommen kleine und mittelgroße Unternehmen vermehrt unter Druck, da sie mit geringerer Kaufkraft und schrumpfenden Märkten konfrontiert sind. Dadurch ist es von besonderer Bedeutung, Kosten zu senken und vorhandene Ressourcen effizienter zu nutzen. Im Mittelpunkt dieser Überlegungen steht die IT, die einen wesentlichen Kostenfaktor darstellt. Durch den Einsatz von Cloud Computing, das zunehmend an Bedeutung gewinnt, soll eine massive Kosteneinsparung erreicht werden. Im Rahmen dieser Arbeit soll die Umsetzbarkeit von IT-gestützten Funktionen mittels Cloud Computing gezeigt werden. Der Schwerpunkt dabei liegt auf dem Einsatz von sogenannten Public Clouds und dem Einsatz von Software, die als Service angeboten wird (SaaS). Um die Umsetzbarkeit und Effizienz dieses Ansatzes aufzuzeigen, werden eine umfangreiche Marktanalyse erstellt sowie zwei Vorgehensmodelle entwickelt, die an einem ausgewählten Szenario angewandt werden. Im Rahmen des ersten Vorgehensmodells wird der Nutzen des Einsatzes von Cloud Computing in Abhängigkeit von internen Organisationseinheiten eines Unternehmens dargestellt. Beim zweiten Vorgehensmodell, das eine mehrdimensionale Bewertungsmatrix umfasst, wird eine Beurteilung von verschiedensten Cloud Computing Services durchgeführt. Anhand dieses Bewertungskatalogs ist es möglich, die Vor- und Nachteile eines potentiellen Einsatzes von Cloud Computing im Unternehmen zu identifizieren. Zusammenfassend werden die Einsatzgebiete sowie die Sinnhaftigkeit eines Einsatzes von Cloud Computing in kleinen und mittelgroßen Betrieben aufgezeigt. Anhand der Vorgehensmodelle sind die Ergebnisse der vorliegenden Arbeit auch auf andere Unternehmen anwendbar.

Arbeitsbereich (vor 2018) Computer Vision

Diplomarbeitsposter Fischer Christoph

Christoph Fischer

Masterstudium Software Engineering & Internet Computing
Abstract:

Benutzerauthentifikation wird in der Regel durch Passwörter/PINs durchgeführt. Dieser Ansatz hat neben einigen Vorteilen auch gewichtige Nachteile. Passwörter können von beliebigen Personen verwendet werden und sind somit personenunabhängig. Als Ersatz/Erweiterung dieses klassischen Ansatzes bietet sich Biometrie an. Das Gesicht ist neben dem Fingerabdruck, der Iris usw. ein biometrisches Merkmal, das zur sicheren Identifikation von Personen eingesetzt werden kann. Im Rahmen der Diplomarbeit wurden ausgewählte Vertreter von Gesichtserkennungsalgorithmen der Literatur in einer C++ Testumgebung umgesetzt, beschrieben und evaluiert. Die Kriterien waren neben der Erkennungsrate Rechenaufwand, RAM-Bedarf und Festspeicher-Bedarf. Als Testgrundlage wurde die frei verfügbare FERET-Gesichtsdatenbank gewählt. Die Ergebnisse wurden beschrieben und bewertet. Geeignete Bildvorverarbeitungsschritte zur Verbesserung der Erkennungsrate wurden ebenfalls implementiert und evaluiert.

Diplomarbeitsposter Hollaus Fabian

Fabian Hollaus

Masterstudium Visual Computing
Abstract:

This work deals with the automated reconstruction of modern English handwritings and ancient Greek texts. The Greek writings were overwritten in the past and the presented system utilizes multi-spectral images, in order to identify the overwritten regions and to reconstruct them. The detection of the overwritten regions is fulfilled by a binarization algorithm, which considers the differences between intensity minima and maxima in a local neighborhood. The foreground regions found are subsequently filled by a statistic inpainting approach. The inpainting technique chosen is part of the Fields of Experts (FOE) framework. This approach is based on Markov Random Field modeling and allows for a learning of statistical image models, which model long range dependencies between pixels. The models are defined by several parameters, which are all learned from a training database. Such a trained model is used in an inference task in order to maximize the probability of a restored image. FOE image models are used in this work in order to recover the occluded parts of ancient Greek texts. A further inpainting technique has been developed for the reconstruction of modern writings: Contrary to the statistical approach, the second algorithm is based on a heuristic one that is called tensor voting framework. The technique is applied on handwritings in order to restore missing curve points, which belong to character boundaries. The recovery of modern writings, which were partially overlapped by ruling lines, was analyzed in one experiment. The heuristical approach gained an average PSNR value of 15.58 dB in this test. The statistical inpainting technique was able to reconstruct more missing text regions and hence it yielded a higher PSNR value of 18.24 dB. The proposed system gained an average PSNR value of 20.34 dB on the dataset, which was comprised of the Greek writings.

Diplomarbeitsposter Nowakowska Aneta

Aneta Nowakowska

Biomedical Engineering
Abstract:

In this thesis methodologies for learning based fall detection using a dynamic stereo vision sensor are elaborated. The main characteristic of the sensor is that data is generated asynchronously and only pixels with illumination changes produce an output. To obtain relevant information about the motion of the person, the 3D data is transformed into world coordinates. Features describing the pose and motion of the body are proposed and evaluated with regard to their signi ficance for fall detection. A database of 205 scenarios containing falls and normal movements is prepared and used to generate samples in form of 3 seconds long sliding windows with associated features. The samples serve as input for the training of two di fferent learning approaches, namely the Hidden Markov Model and the Multilayer Perceptron. Optimal parameter settings for the architecture of the two classi fiers are found with the help of cross validation on the sample set. The signifi cance of the particular features for the classi fication performance is investigated by training and validating classi fiers with subsets of the features.

Diplomarbeitsposter Reingruber Harald

Harald Reingruber

Masterstudium Visual Computing
Abstract:

During the last decade researchers have developed bio-inspired sensors which mimic human visual sensing. In event-based vision, the neuronal spikes are represented by events that are generated when the relative change of light intensity exceeds a certain threshold. The output of an event-based vision sensor is a stream of events, generated by autonomous pixels, which fire them as soon as they occur and do not wait for an artificial frame time. Additionally, redundant information like static image areas is suppressed. Current Stereo Vision concepts based on Address-Event Representation (AER) are abandoning the benefits of this asynchronous representation by buffering incoming events into artificially introduced pseudo-frames. One aim of this thesis is to design an asynchronous data interface for event-based stereo matching which preserves these advantages. The second goal is to make this data interface applicable to motion at different velocities in the sensor's field of view. A ground-truth comparison between the state of the art approach and the one presented by this work has been performed in order to analyze feasibility and improvements by the presented approach. After analyzing different methods for acquiring comparable ground-truth data from dynamic scenes, it turned out that capturing ground-truth data from scenes containing moving test objects with complex geometry remains a topic for follow-up research, as its extent exceeds the scope of this work. An evaluation approach using simple test objects, finally led to a feasible evaluation. Due to the test object simplifications, the evaluation was not able to reveal improvements in stereo matching accuracy regarding varying object movement velocities, as it was not able to sufficiently stress the drawbacks of the state of the art solution. Nevertheless, the principal aim, an asynchronous data interface, was achieved and as visible in the evaluation result, without negative impact on stereo matching accuracy.

Diplomarbeitsposter Schlegl Thomas

Thomas Schlegl

Masterstudium Medizinische Informatik
Abstract:

Die Studie der Augenbewegungen und deren Entwicklung ist aus zweierlei Gründen von Interesse. Einerseits besteht die Möglichkeit, dass daraus neue Erkenntnisse über die Natur und die Entwicklung der visuellen Wahrnehmung gewonnen werden können. Andererseits wird angenommen, dass durch die Beobachtung von Bewegungsmustern der fötalen Augenbewegungen die physiologische Entwicklung des Fötus beurteilt werden kann. Trotz erster Arbeiten, die auf rein subjektiven Beurteilungen von Ultraschallaufnahmen beruhen, aber die diagnostische Bedeutung von fötalen Augenbewegungen unterstreichen, existiert bis heute keine quantitative Studie über Bewegungsmuster der fötalen Augenbewegungen. Die automatisierte Erkennung von fötalen Augenbewegungen und die quantitative Studie von Bewegungsmustern während der fötalen Entwicklung ist Inhalt der vorliegenden Diplomarbeit. Das implementierte Framework zur Detektion von fötalen Augenbewegungen umfasst das Tracking und die Segmentierung der Augäpfel und die anschließende Detektion der Pupillen in MRI Zeitserien. Aus dieser Zeitserie werden Bewegungsmuster der fötalen Augenbewegungen extrahiert und die Winkelpositionen relativ zur Kopfachse sowie die daraus abgeleiteten Gradienten der Augenbewegungen untersucht. Spectral Clustering dient zur explorativen Suche nach Bewegungsmustern. Bei dieser Suche wird keinerlei Vorwissen integriert. Zusätzlich werden mithilfe linearer Regression Merkmale, die auf Vorwissen oder Annahmen beruhen, mit den Schwangerschaftswochen in Beziehung gesetzt und somit deren Verlauf über die Zeit beschrieben. Mithilfe der Korrelationsanalyse werden spezifische Bewegungsmuster detektiert und näher untersucht, die bisher nur postnatal beobachtet werden konnte. Die Ergebnisse dieser Arbeit liefern einen ersten Ansatz für die quantitative Erforschung von fötalen Augenbewegungen, und korrelieren unter anderem mit rezenten Erkenntnissen der fötalen Hirnforschung, die eine Asymmetrie in der Gehirnentwicklung beschreiben.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Bierleutgeb Petra

Petra Bierleutgeb

Masterstudium Software Engineering & Internet Computing
Abstract:

In the past few years, Service Oriented Architectures (SOA) have become increasingly popu lar, as they promise to solve vital challenges of large, distributed enterprise systems, such as heterogeneity and enabling loose coupling. However, the anticipated decoupling of services and clients has not been fully achieved, as the publish-find-bind triangle, which suggests the dynamic discovery and selection of services, is partially broken. Furthermore, many service-based systems miss sophisticated monitoring and reporting capabilities. VRESCo - the Vienna Runtime Environment for Service-oriented Computing - aims to over come these limitations by providing support for dynamic service discovery and binding. However, the framework currently only exists as a research prototype that has never been tested in real-life enterprise systems. An employment in such systems would prove beneficial for further research, but is impeded by the high complexity an installation would cause. In this thesis, a proxy-based solution for the interception, analysis, correction and monitoring of Web service requests is introduced. VRoxy (VRESCo Proxy) enables the transparent employment of VRESCo, by releasing clients of the responsibility to communicate with the registry on their own. Instead, VRoxy intercepts requests sent by clients, and uses the information contained in the SOAP message to query VRESCo for matching service revisions. Thus, VRoxy is able to update the endpoint used in the original request, and redirect the invocation to the Web service endpoint stored in VRESCo. Furthermore, since all traffic between clients and services passes through the proxy, VRoxy is capable of monitoring intercepted Web service invocations. The gathered monitoring data is presented in form of informative and interactive reports.

Diplomarbeitsposter Blauensteiner Manuel Andreas

Manuel Andreas Blauensteiner

Masterstudium Software Engineering & Internet Computing
Abstract:

In den meisten Web 2.0 CRUD Anwendungen existiert ein so genannter Administrationsbereich, in dem die Daten der Webanwendung verwaltet werden. Das Problem hierbei ist, dass dieser Bereich für jede CRUD Anwendung immer neu entwickelt wird, obwohl das Prinzip der Datenverwaltung jedes mal dem gleichen Schema folgt. Hierfür wird oft das bekannte Copy & Paste Verhalten angewendet. Dieses widerspricht jedoch jeglichen Aspekten der Software Wiederverwendung. Diese Diplomarbeit beschäftigt sich mit der automatischen Generierung von Administrationsbereichen. Hierfür wird ein modell-getriebener Ansatz verfolgt. Insbesondere konzentriert sich diese Arbeit auf die Definition eines Metamodells, mit dem die Modellierung der Verwaltungsseiten möglich ist. Um die automatische Generierung der Verwaltungsseiten zu ermöglichen wird ein Codegenerator implementiert. Um die Funktionalität der Validierung der Eingabedaten zu ermöglich, wird das Metamodell entsprechend erweitert. Die generierte Webanwendung folgt dem Model View Controller (MVC) Pattern. Es werden somit alle Datenobjekte (Model), die grafischen Oberflächen der Webseiten (View) und die Navigation durch die Webseiten (Controller) automatisch erstellt. Um die Arbeitsweise dieses Ansatzes zu demonstrieren wurde ein Prototyp entwickelt, welcher auf der JavaServer Faces (JSF) Technologie basiert. Die Webanwendung kann auf jedem beliebigen Applikationsserver ausgeführt werden. Um fundierte Aussagen über die Qualität des Ansatzes zu erhalten wurde eine quantitative Evaluierung bezüglich der Wiederverwendbarkeit durchgeführt.

Diplomarbeitsposter Ferner Johannes

Johannes Ferner

Masterstudium Business Informatics
Abstract:

Service Level Agreements (SLAs) play a fundamental role in service compositions. As they represent binding contracts between service consumers and service providers, their violation is usually linked with profit loss. In order to maximize profit a multitude of SLA violation detection mechanisms exist that can roughly be classified into two categories: the ex-post and ex-ante detection, whereas the latter is fundamental when preventing SLA violations and subsequently is of great interest. Most of the current approaches either focus on the ex-post detection or insufficiently consider the behavior of SLAs over time. Moreover, the accurate prediction of target values, being of categorical nature, is still open. The following thesis elaborates a new ex-ante SLA violation detection mechanism, which makes use of the general statistical class of Autoregressive Integrated Moving Average (ARIMA) models. Thereby the past realization values of specific target values - called Service Level Objectives (SLOs) - are analyzed and fitted into a time series model. As the application of SLAs involves the validation of as many services as possible at the same time, the reduction of human intervention is desirable. Therefore, the creation and training of the statistical models is done automatically. All theoretical models are implemented and tested within the research prototype Vienna Runtime for Service Compositions (VRESCo) and the results are validated in the course of a practically relevant example use case, proving the great potential of ARIMA models in the domain of forecasting SLA violations: Differently behaving SLAs (e.g. the delivery time of a reseller) result in a prediction accuracy ranging from 99.31% up to 99.77%. In the case of categorical SLAs the resulting prediction accuracy of 7.18% indicates the need of further research work.

Diplomarbeitsposter Hess Mathias

Mathias Hess

Masterstudium Software Engineering & Internet Computing
Abstract:

Guaranteed Quality of Service (QoS) characteristics of composite services, such as availability and performance, are formulated within Service Level Agreements (SLAs), service providers and consumers agree upon. Service providers need to dimension the capacities of their infrastructures in accordance to these guarantees. Misestimating the load their services are exposed to, results in violating SLAs and facing penalties. Papers, proposing solutions to this issue, either focus on the services instead of the infrastructure, hosting a composite service, or do not consider opportunities of hosting composite services in the Cloud. This thesis suggests deploying a composite service, together with its infrastructure, into the Cloud, so service providers take advantage of the Cloud’s handling of resources. Moreover it proposes an approach to reduce the amount of SLA violations by using these capabilities. Therefore, the design and implementation of a runtime engine for composite services will be explained. The engine is able to provision itself with additional resources, and uses an eventdriven approach to evaluate SLA violations. A prototype, using the open source Cloud platform Eucalyptus, was implemented as part of this thesis. Its internals and deployment within Eucalyptus will be presented in detail. The ideas presented within this thesis are applicable to Amazon Elastic Compute Cloud (EC2) as well. This is because Eucalyptus makes use of similar concepts (e.g., pre-built machine images and instance types) and provides a compatible interface. As will be shown by the results of an extensive evaluation, considering both the benefits and limitations of the proposed approach, the prototype is able to significantly reduce the amount of SLA violations, even to an extent that also outweighs potential costs.

Diplomarbeitsposter Irlacher Matthias

Matthias Irlacher

Masterstudium Software Engineering & Internet Computing
Abstract:

Da das Paradigma der Services-Oriented Architecture (SOA) sich immer weiter verbreitet, wird auch die Qualität der benutzen Services immer wichtiger. Diese Quality of Service (QoS) ist dabei nicht nur wichtig für menschliche Nutzer, sondern auch für andere Services. Das Überwachen und automatische Überprüfen auf Verletzungen von Services Level Agreements (SLAs) sind ein notwendiges und interessantes Thema. Diese Diplomarbeit demonstriert und evaluiert ein System, welches Servicequalität mittels eines zentralen Monitors und eines minimal-invasiven Frameworks bei Clients und Services misst. Sie verwendet drei domain-specific languages (DSLs) um SLAs zu beschreiben (SLADSL), Messpunkte und ihren Kontext zu definieren (MPDSL) und Metriken, basierend auf den definierten Messpunkten, zu erstellen (MDDSL). Zusätzlich wird ein System zum Verteilen der Messpunkt-Informationen vorgeschlagen. Das konkrete Messen findet bei Clients und Services statt. Die gemessenen Rohdaten werden an den Monitor gesendet, welcher Transformationen benutzt, die aus MDDSL Beschreibungen generiert wurden, um in einem Complex Event Processing (CEP)-System Metriken aus den Rohdaten zu generieren. Ziel dieser Diplomarbeit war es, einen schnellen, event-basierten Mechanismus zu finden, um QoS Properties zu definieren und zu messen, basierend auf einem Ansatz von Ernst Oberortner. Die Evaluierung zeigt einen minimalen Einfluss am Messort bei Benutzung einer Interceptor-basierenden Messung. Der zentrale Monitor erweist sich als Flaschenhals, doch eine mögliche Lösung, durch Auftrennen des Monitors in mehrere Systeme, wird vorgeschlagen. Eine Evaluierung testet den Prototypen und diskutiert weitere Verbesserungen des Systems.

Diplomarbeitsposter Redl Christoph

Christoph Redl

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Verwaltung von Anforderungen von Markteilnehmern ist Voraussetzung für die erfolgreiche Realisierung von Cloud-Märkten. Verträge über die Nutzung von Cloud-Diensten werden üblicherweise via Service-Level-Agreements (SLAs) abgeschlossen. Bevor diese verhandelt werden, müssen Marktteilnehmer (Dienstleister und Kunden) ihre eigenen Anforderungen an Cloud-Dienste festlegen. Da es keine allgemein gültigen Standards für die formale Spezifikation von Anforderungen in SLAs gibt, können diese von SLA zu SLA variieren. Zur Lösung dieses Problems wurden SLA-Mappings entwickelt, welche Anforderungen mit gleicher Aussage aber unterschiedlicher Spezifikation miteinander verknüpfen. Die Spezifikation von SLA-Mappings ist notwendig, um automationsunterstützt Anforderungen mit gleicher Aussage aber unterschiedlicher Spezifikation identifizieren zu können und die Verwaltung der Anforderungen zu ermöglichen. Bei Markteintritt wird die Spezifikation von SLA-Mappings durch Marktteilnehmer verlangt, was jedoch einen hohen Aufwand für diese darstellt. Die vorliegende Diplomarbeit greift dieses Problem auf und versucht den Aufwand von Marktteilnehmern für die Spezifikation von SLA-Mappings zu reduzieren, indem sie einen Ansatz für die autonome Generierung und Verwaltung von SLA-Mappings vorstellt. Wir analysieren und vergleichen verschiedene Methoden um die Semantik von SLAs und SLA-Mappings zu lernen und in weiterer Folge SLA-Mappings automatisch generieren und an die Marktteilnehmer vorschlagen zu können, sodass deren Aufwand für die manuelle Spezifikation reduziert wird. Durch Simulierung des Prozesses der An- forderungsspezifikation in einer Cloud-Umgebung evaluieren wir die Vorteile unseres Ansatzes für die Marktteilnehmer. Schließlich können wir zeigen, dass der vorgestellte Ansatz für die automatische Generierung und Verwaltung von SLA-Mappings den Aufwand von Marktteilnehmern, im Gegensatz zur manuellen Spezifikation von SLA-Mappings signifikant reduzieren kann.

Diplomarbeitsposter Werner Christoph

Christoph Werner

Masterstudium Software Engineering & Internet Computing
Abstract:

Business processes are the heart of many modern software applications. Modern architectures tend to use Domain Specific Languages (DSL) to implement these processes. These languages contain an abstraction from technical implementation details. Therefore using DSLs lead to better readable and maintainable code. In our approach we develop a DSL usable for specifying workflows for one specific domain. Our example is able to specify the check-in process at a doctor. Other use cases may be possibleas well. The DSL contains activities on an abstract level. To execute the workflow it has to be transformed to executable workflow code. This code will be implemented using a well established framework. There are many advantages using this level of abstraction over implementing the workflow in the executable workflow language. The DSL is framework independent and therefore can be used in any framework. The DSL contains less activities than the executable workflow. This makes the workflow better readable and maintainable.DSL contains only activities on one level of abstraction. This might not be the case in the executable workflow definition. Activities only needed for technical reasons complicate reading the workflow. Our abstract DSL only contain activities needed for specifying the workflow. Technically needed activities have to be added at the transformation process. Validation and Verification on the abstract level is easier. The smaller number, and the lack of technically needed activities make the workflow easier to validate. Optimation may be done at two points in time. First on DSL level and second at transformation time. The heavy use of frameworks offers flexibility and eases development. This work introduces a DSL, able to specify such workflows. Afterwards a prototypical implementation of the transformation process for the Microsoft WF .NET framework is done.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Charwat Günther

Günther Charwat

Masterstudium Software Engineering & Internet Computing
Abstract:

In recent years abstract argumentation frameworks (AFs) have emerged as an important research field in artificial intelligence. AFs are defined as directed graphs consisting of arguments (nodes in the graph) and attack relations (edges in the graph). We are interested in the selection of 'appropriate' arguments in an AF. The sets of appropriate arguments are then called the extensions of the AF. In abstract argumentation this 'appropriateness' can be defined by a wide variety of different semantics. For most semantics the computation of extensions for an AF is in general computationally hard. But by binding a certain problem parameter to a fixed constant many of those intractable problems become tractable. One important parameter for graph problems is the tree-width of a graph which represents the tree-likeliness of the AF. The tree-width is defined on tree decompositions of an AF. A tree decomposition is a mapping of a graph to a tree where the latter can be used to evaluate a certain problem efficiently. In this thesis we introduce novel algorithms for stable and complete semantics that are defined on so-called normalized tree decompositions. Furthermore we present a novel algorithm for admissible semantics based on semi-normalized tree decompositions that generalizes an existing algorithm on normalized tree decompositions. The advantage of semi-normalized (compared to normalized) tree decompositions is that they consist of less nodes and thus the overall depth of a semi-normalized tree decomposition is lower. Besides the algorithms and the correctness proofs thereof we provide an implementation on basis of a purpose-built framework for algorithms on tree decompositions. This allows us to compare our novel algorithm for admissible semantics on semi-normalized tree decompositions to the existing algorithm on normalized tree decompositions. Our experimental results show that our novel implementation outperforms the existing one.

Diplomarbeitsposter Hubmer Andreas

Andreas Hubmer

Masterstudium Computational Intelligence
Abstract:

Uncertain data arises in many applications, for example from sensor networks, information extraction and data integration. While ordinary relational databases do not have the capabilities to process uncertain data, uncertain databases conveniently manage the uncertainty. They model a multitude of possible worlds. The challenge is to represent uncertain databases succinctly, and at the same time allow for efficient query evaluation. U-relations are a very succinct representation system for uncertain databases, which have polynomial time data complexity for positive relational algebra queries extended by an operator for computing possible answers. In this work we study the problem of updating U-relations. We show that positive relational algebra does not suffice to model arbitrary updates and reduce the problem of updating U-relations to computing set difference on U-relations. We present two approaches: decompression and negation. While decompression has a rather high complexity, negation considers the structure of a U-relation and thus gives much better results. Additionally we extend U-relations and present two new representation systems for uncertain databases: Ui-relations and Uint-relations. They keep the advantages of U-relations and lower the complexity of set difference exponentially. As updating U-relations can lead to a suboptimal representation of the uncertain database, we investigate the problem of optimizing U-relations. We prove that finding the minimal representation is intractable and present two optimization heuristics. We integrate one of them into the computation of set difference, which gives a better bound for the complexity of set difference. To show the practicability of our theoretical concepts we have created a prototype. Our experiments show that it scales well with increasing database sizes, and a comparison makes clear that Ui-relations and Uint-relations are an improvement over U-relations.

Diplomarbeitsposter Satz Hannes Karl

Hannes Karl Satz

Masterstudium Software Engineering & Internet Computing
Abstract:

It is quite a challenge to meet all the requirements of today's users. Having one well-designed user interface for every single business application within a company is not sufficient anymore. The typical user wants short response times when retrieving data or viewing requested results. A solution to this issue is the usage of portal technology. It is also a matter of fact that users of web data extraction applications are interested in receiving content from cooperative sources efficiently and automated and of course more quickly than their competitors do. Therefore the concept behind this thesis is based on a procedure to access any web content and to retrieve web data information of heterogeneous sources. The thesis is divided into two parts, a practical and a theoretical chapter. The theoretical part starts with an overview of the currently available standards for portal server technologies (jsr-168, jsr-286) and how they are supported and implemented in specific portal server applications. The scope of the practical part is to create the design and the implementation of a portal application.

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Kogelnig Richard

Richard Kogelnig

Masterstudium Computational Intelligence
Abstract:

Das Planen von kollisionsfreien Pfaden ist eine Aufgabe, die etwa bei Industrieautomatisierung und autonomen Fahrzeugen von Interesse ist. Sampling-basierte Planer wie Rapidly Exploring Random Trees (RRT) sind in der Lage, damit zusammenhängende, komplexe Probleme effizient zu lösen. Seit der Einführung dieser Algorithmen wurden diverse Schwachstellen identifiziert, etwa enge Passagen im Zustandsraum. Aktuelle Methoden zerlegen den freien Raum zwischen Hindernissen in nicht-überlappende Zellen (Workspace Decomposition) und verwenden diese Struktur, um den Planungsprozess zu steuern und den Einfluss von engen Passagen zu reduzieren. Das Ziel dieser Arbeit ist es, eine Analyse von Erweiterungen für RRT-basierter Planer zu präsentieren, die von Workspace Decompositions Gebrauch machen. Diese Methoden sollen implementiert und potentielle Verbesserungen umgesetzt werden. Das Hauptaugenmerk liegt dabei auf neuen Methoden, die einen Graphen anhand der Nachbarschaftsstruktur der Zellen aufbauen und ihn verwenden, um den Suchprozess "greedy" zum Ziel zu führen. Wir präsentieren vier Decomposition-basierte Erweiterungen der RRT-Methode. Sie umfassen zwei Samplingerweiterungen, eine Adaption der Graph-Methode auf RRTs sowie eine neue Methode genannt "Two Layer-RRT" (TL-RRT), die den RRT-Ansatz auf die diskrete Graph-Schicht anwendet. Die Methoden wurden implementiert und auf komplexen Planungsproblemen evaluiert. Die graph-basierten Methoden erreichen eine signifikante Verminderung der Planungszeit um einen Faktor von bis zu 22. Eine gravierende Schwachstelle der "greedy"-Methode wird identifiziert. Sie bewirkt, dass die Planungszeit auf speziellen Planungsproblemen signifikant verlängert wird oder verhindert, dass "greedy"-Methoden eine existierende Lösung finden. Desweiteren zeigen wir, dass unser TL-RRT Ansatz in der Lage ist, dieses Problem zu bewältigen und Workspace Decomposition-geleitete Methoden geeignet sind, RRT-basiertes Planen zu beschleunigen.

Diplomarbeitsposter Konev Artem

Artem Konev

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

The Resource Description Framework RDF is a language for representing information about resources in the World Wide Web. The RDF semantics specification defines several entailment relations for RDF graphs. Additionally, D-entailment and its semantic weakening D*-entailment extend other entailment relations of RDF to be capable for datatypes. Frame logic is a formalism that provides a logical foundation for frame-based and objectoriented languages for data and knowledge representation and possesses a specific entailment relation. In this work we present a novel concept of an extended RDF graph that corresponds to an RDF graph merged with a Frame Logic program. Exploiting embeddings of RDF in logic, we attempt to bridge the foundation gap between the two formalisms. We specify different types of entailment for extended RDF graphs and consider the datatype support. In order to show the feasibility of the introduced notion for practical applications, we develop a reasoning tool that reduces the problem of checking entailment between extended RDF graphs to reasoning over an answer set program. For such reasoning, our tool utilizes existing answer set program solvers. Finally, we analyze the performance of the implemented tool on large real-life test cases.

Diplomarbeitsposter Matzke Thomas

Thomas Matzke

Masterstudium Software Engineering & Internet Computing
Abstract:

Many important problems in the field of artificial intelligence like verification, planning and knowledge representation are located in the complexity class PSPACE. The decision problem of quantified Boolean formulas (QBFs), which extend classical propositional logic with quantifications over propositional variables, is the prototypical problem for PSPACE. Over the last decade, several QBF solvers have been proposed, but most of these solvers accept formulas only in prenex conjunctive normal form (PCNF) as input which requires additional preprocessing steps. In this thesis we present QPar, a solver for QBFs in NNF. QPar works by splitting a formula into subproblems and distributing them to multiple slave hosts for parallel computation. The splitting method, a variant of the well established DPLL algorithm, allows for the use of different branching heuristics. Multithreading on the slave components allows for the maximum utilization of modern multiprocessor systems. For solving the subproblems a single-threaded solver is used. The results of the subproblems are combined to yield a result for the original formula. QPar features a modular architecture, making the implementation of new back-ends easy and allowing it to be used as a general parallelization framework for single-threaded solvers. QPar also introduces branching heuristics for formulas in NNF which have not been discussed in the literature yet. We show the performance of QPar in comparison to single-threaded solving and present results of the evaluation of the realized branching heuristics.

Diplomarbeitsposter Wurzer Sebastian

Sebastian Wurzer

Masterstudium Computational Intelligence
Abstract:

Erklärungen sind ein integraler Bestandteil unseres täglichen Lebens. Menschen geben und erhalten sie kontinuierlich, um Informationen zu verarbeiten. In vielen Fällen ist diese Information für den Menschen sonst nicht wahrnehmbar. In ähnlichem Umfang sind Erklärungen ebenso ein essentieller Teil in der Kommunikation zwischen wissensbasierten Systemen und ihren Benutzern. Jedes wissensbasierte System benötigt Erklärungen, um ungenaue Domänen sowie komplexe Mechanismen genauer darzustellen. Sie werden ebenfalls gebraucht, um den Entscheidungsprozess des Benutzers, ob die Empfehlung des Systems korrekt ist oder nicht, zu unterstützen. Entscheidungsträger müssen dem System und ihren Empfehlungen vertrauen. Falls der Prozess beziehungsweise die Empfehlung nicht verstanden wird, ist es unwahrscheinlich, dass diese vom Benutzer akzeptiert wird. Somit spielen Erklärungen eine entscheidende Rolle für die Akzeptanz wissensbasierter Systeme. Diese Diplomarbeit präsentiert EM4J, einen Werkzeugkasten zur Erstellung von Erklärungen für das Intelligent Geo-Risk Evaluation System (InGES). Zusätzlich unterstützt EM4J die Erstellung von wissensbasierten Systemen. Die Aufgabe dieses Systems ist es, Risikostufen für untersuchte Landschaftsgebiete abzuschätzen. Da InGES in einer Umgebung arbeitet, die sich durch sehr hohe Kosten für Fehlentscheidungen auszeichnet, war es das Ziel, eine technische transparente prozess-orientierte Anwendung zu implementieren. Diese soll den Schlussfolgerungsmechanismus genau beleuchten. Dieser Ansatz soll dem Benutzer die Entscheidung, ob eine Empfehlung von InGES angenommen oder abgelehnt werden soll, erleichtern. EM4J basiert auf der Theorie von Wick et al. Es ist eine prozess- sowie verifizierungsorientierte Erklärungskomponente entstanden, die eine sehr hohe Kopplung zum Folgerungsmechanismus hat. Somit ist EM4J auf eine hochqualifizierte Benutzergruppe zugeschnitten.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Budischek Mario

Mario Budischek

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit vergleicht die drei Webframeworks Wicket [67], Tapestry [71] und die JSF2 Referenzimplementierung Majorra (2.0) [87], wobei unter anderem die folgenden Bereiche verglichen werden: Grundkonfiguration, Seitenaufbau, Validierung, Request-Verarbeitung, Navigation, Komponenten, Events, AJAX, Vorlagen, Dependency-Injection und Scopes. Dabei wird, wo sinnvoll, auf praktische Beispiele zurückgegriffen und deren unterschiedliche Umsetzung mit den einzelnen Frameworks untersucht. Weiters werden die Frameworks auf ein einheitliches Grundgerüst gestellt, das aus Spring-IoC und Spring-Security besteht. In diesem Zug wird auch gezeigt, wie die Mängel, die Spring im Bereich der Scopes hat, behoben werden können. Zur Bewertung der einzelnen Punkte des Vergleiches wird ein Punktesystem eingeführt, wobei die Gewichtung der einzelnen Kategorien variabel ist, und an die jeweiligen konkreten Anforderungen angepasst werden. Ziel dieser Diplomarbeit ist es Stärken und Schwächen der Frameworks aufzudecken und festzustellen, wie gut diese mit den rapide wachsenden Anforderungen, die heute an Webanwendungen gestellt werden, mithalten können. Die größten Erwartungen lasteten dabei unweigerlich auf JSF2, da es das jüngste der drei Frameworks ist, sehr stark von Tapestry inspiriert wurde und viel Zeit hatte, um aus den Fehlern der anderen beiden zu lernen. Wie diese Arbeit zeigt, sind sich die Frameworks in einigen Punkten sehr ähnlich, in anderen wiederum verfolgen sie sehr unterschiedliche Ansätze. Jedes Framework hat seine Vor- und Nachteile, insgesamt sind aber alle drei sehr ausgereift und stabil. Besonders JSF2, in Kombination mit einem Komponentenframework, kann überzeugen und wird den hohen Erwartungen durchaus gerecht. Welches Framework sich letztendlich durchsetzt, hängt aber von der Gewichtung der einzelnen Kriterien ab.

Diplomarbeitsposter Kruse Florian

Florian Kruse

Masterstudium Business Informatics
Abstract:

These days software solutions constitute a critical part of business infrastructures. Almost all companies use at least one such solution, which is indispensable for the daily business. Therefore reliable solutions are needed, which are both highly available and ensure data consistency. There are many solutions providing these characteristics, but they target large enterprises. So, there is a need for inexpensive, simple solutions, which small companies can afford. (Kruse, 2010) developed a database cluster solution, that filled that gap. Here this work is continued. This thesis analyzes on the basis of use cases the applicability and the limitations of such a heterogeneous SQL cluster and, more general, of highly available database solutions. The limitations are for example found in the software components surrounding the database. Business software systems are most often too large and too complex, such that a data base solution alone is not sufficient for guaranteeing high availability. For each presented use case possible solutions are discussed. The applied high availability methods exceed the usual methods, as for example RAID or operation systems clusters, and contrast the emerging technologies virtualization and outsourcing to data centers or the cloud. In the last year unavailability of large cloud computing services and massive data thefts emphasized the need for turning to alternatives which keep the data within the company. This thesis shows the risks relevant to high availability solutions involving databases. Furthermore it is shown that by using a good software design and a well thought-through system architecture it is possible for small enterprises to have affordable high availability solutions, which keep the data sovereignty within the company and without creating additional dependencies on internet connections or on intransparent services.

Diplomarbeitsposter Meindl Thomas

Thomas Meindl

Masterstudium Software Engineering & Internet Computing
Abstract:

Persistence in a distributed shared memory middleware provides a reliable service and persists shared data mainly for reasons of recovery. XVSM (eXtensible Virtual Shared Memory) is a space based architecture (SBA) - based on the distributed shared memory paradigm, that enables a coordination-focused and data-driven interaction style. XVSM also offers an easy extension mechanism, that allows users to implement loosely coupled orthogonal extensions named functional profiles. This diploma thesis is concerned with the design and implementation of XVSM Persistence - a persistence layer, that is designed as an orthogonal functional profile for XVSM. XVSM Persistence offers enhanced persistency semantics, that have been defined, when investigating and comparing other space based middleware frameworks. XVSM Persistence keeps the component architecture independent of the actual persistence storage solution. The reference implementation is based on MozartSpaces 1.0 - the Java implementation of XVSM. During the design and implementation process some shortcomings of MozartSpaces 1.0 were identified and were propagated to the development team of MozartSpaces 2.0. Benchmark results showed that XVSM Persistence is considerably slower than other SBAs when using MozartSpaces 1.0. Nevertheless, the defined enhanced persistency semantics distinguishes XVSM Persistence from any other presented space based computing framework in terms of comprehensiveness and flexibility.

Diplomarbeitsposter Winkler Markus

Markus Winkler

Masterstudium Software Engineering & Internet Computing
Abstract:

Herkömmliche Intrusion-Detection-Systeme (IDS) gewähren einer IT-Infrastruktur ein gewisses Maß an Sicherheit. Da Angriffstechniken sich genauso kontinuierlich weiterentwickeln wie Verteidigungsstrategien, sind Angriffsszenarien entstanden, die von einem herkömlichen IDS nur sehr schwer oder gar nicht erkannt werden können. Eine effiziente Möglichkeit, die Erkennungsrate eines IDS zu erhöhen, besteht darin, mehrere IDS zusammenarbeiten zu lassen. Extensible Virtual Shared Memory (XVSM) ist ein Middleware-Konzept, das Anwendungen unterstützt, die ein hohes Level an Kooperation benötigen. Diese Arbeit stellt ein Konzept vor, wie ein modernes und effizientes Kollaboratives Intrusion- Detection-System (CIDS) auf der Basis von XVSM gebaut werden kann. XIDS, ein erster Prototyp dieses Konzepts, beruht auf der Java-basierten XVSM-Umsetzung MozartSpaces. Ein Hauptziel von XIDS ist das modulare Design, welches eine unkomplizierte Erweiterkeit des Systems garantiert. Dies dient dazu, das System einfach und schnell an neue Angriffsszenarien anpassen zu können.

Diplomarbeitsposter Wällisch Diana

Diana Wällisch

Masterstudium Medizinische Informatik
Abstract:

Die Entwicklung der Naturwissenschaft war durch das mechanistische Weltbild geprägt. In den letzten Jahrzehnten gewinnen die Erkenntnisse über nichtlineare chaotische Systeme an Bedeutung, speziell auch in der medizinischen Diagnostik und Therapie.Edward Lorenz legte 1961 die Grundsteine der Chaostheorie. In seinem Experiment das Wetter vorherzusagen machte er die Entdeckung, dass sich chaotische Systeme nichtlinear verhalten. Sie können mit ungewöhnlich großen Auswirkungen auf geringfügig veränderte Anfangsbedingungen reagieren. Solche Systeme erzeugen fraktale Strukturen und lassen sich mit Hilfe der fraktalen Dimension beschreiben. Es kann ihnen erstmals ein numerischer Wert zugeordnet werden. Diese Arbeit setzt sich damit auseinander, inwiefern diese Erkenntnisse in der medizinischen Wissenschaft, speziell der Tumorpathologie, von Bedeutung sind. Haben Tumoren eine fraktale Struktur? Lassen sich Tumoren durch fraktale Analysemethoden in ihrem Wachstum oder Rückgang frühzeitiger erkennen? Welche Analysemethoden bringen zuverlässige Ergebnisse? Um diesen Fragen auf den Grund zu gehen werden zwei Studien näher beleuchtet, die sich mit der Klassifizierung der verschiedenen Vorstufen des Cervix Karzinoms (CIN I – CIN III) und der Messung der Konturen eines Mammakarzinoms beschäftigen. Dabei kommt die Box-Counting-Methode als technisch-mathematische Analysemethode zum Einsatz. Aus der fraktalen Geometrie lassen sich für die medizinische Diagnostik in der Tumorpathologie neue Erkenntnisse und Entscheidungsgrößen ableiten. Zusätzlich zur subjektiven Analyse eines Tumors kann mit Hilfe der fraktalen Dimension ein objektiver Messwert zur Einschätzung der Gewebestruktur verwendet werden. Im Vergleich der technisch-mathematischen Analyseverfahren stellt sich die Box-Counting-Methode als vorteilhaft dar. Der Aufwand dieser Berechnungsmethode steht in einem guten Verhältnis zur Aussagekraft der Ergebnisse. Sie wird deshalb häufig bei experimentellen Anwendungen eingesetzt.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Acar Erman

Erman Acar

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

After presenting preliminary knowledge in Computability Theory, some versions and interpretations of the so called Church-Turing thesis will be discussed. A formal de finition of hypercomputation will be given. Some proposed abstract and physical hypermachine models from the literature will be presented. These will be (mainly) infi nite time Turing machines, quantum computers and relativistic machine models. Basic principles behind these models and their computational power will be discussed.

Diplomarbeitsposter Eder Matthias

Matthias Eder

Masterstudium Informatikmanagement
Abstract:

Eine Vielzahl an universitären und wirtschaftlichen Organisationen entwickeln patientengeführte elektronische Gesundheitsakten (Personal Health Records - PHR) und stellen sie bereits teilweise der breiten Öffentlichkeit zur Verfügung. Neben der zentralen Speicherung und einer optimierten Arzt-Patienten Kommunikation ergeben sich durch den Einsatz von PHRs zusätzliche Möglichkeiten, die medizinische Behandlung zu verbessern. Eine davon sind elektronische Tagebücher, die den Patienten das Protokollieren ihres Gesundheitszustands abseits medizinischer Einrichtungen erlauben. Diese Arbeit umfasst die Analyse und Umsetzung einer PHR-Anwendung zur Definition und Konsumation generischer Patiententagebücher. Aufbauend auf einer Analyse der etablierten Standards zur Speicherung und Kommunikation medizinischer Daten (openEHR, HL7 CDA, CCR) und aktueller Projekte, die diese Standards einsetzen, werden mögliche Ansätze der Systemarchitektur sowie des Datenmodells erarbeitet. Dabei liegt der Fokus auf frei definierbare, erweiterbare und wiederverwendbare Tagebuchstrukturen sowie auf einer möglichen Interoperabilität mit externen Systemen. Im UI-Design werden speziell die Aspekte des komplexen Tagebuchaufbaus behandelt und mögliche Benutzerschnittstellen aufgezeigt, die sowohl das Entwerfen von Tagebüchern als auch deren Verwendung im Kontext der Anwendungsarchitektur erlaubt. Die prototypische Implementierung der Anwendung erfolgt als Web-basierte online Applikation im Sinne des Web 2.0 in ASP.NET MVC 3 unter Verwendung mehrerer Frameworks zur Unterstützung von Best Practices wie Dependency Injection und OR-Mapping. Mit dem Einsatz der Rendering-Engine Razor sowie externer Javascript Funktionsbibliotheken werden die Anforderungen an das User-Interface umgesetzt. Der Prototyp umfasst ein administratives Modul zum Bearbeiten und Zuweisen der Tagebücher und ein Patientenmodul, um diese regelmäßig auszufüllen.

Diplomarbeitsposter Eggbauer Christian

Christian Eggbauer

Masterstudium Informatikmanagement
Abstract:

Die Fehleranalyse im Gebiet der Software Qualitätssicherung ist essentiell, um die Qualität von Software-Produkten zu steigern. Nur durch eine effiziente und effektive Fehlerfindung wird diese Qualität gewährleistet. Die vorliegende Arbeit basiert auf einer detaillierten Literaturrecherche, die sich mit der Einführung eines Fehlerbogens in ein Testerteam beschäftigt. Bei tiefergreifenden Prozessveränderungen ist es notwendig, Methoden zu verwenden, die die Akzeptanz der beteiligten Personen erhöht. Der einzuführende Fehlerkatalog soll Software Tester-Teams dabei unterstützen, Fehler auf einer Webseite übersichtlich und nachvollziehbar zu dokumentieren. Dabei wird zwischen textueller Beschreibung, Screenshots und Dokumentation durch ein Video unterschieden. Bei der Einführung einer Neuerung muss die Akzeptanz innerhalb der Mitarbeiter- sowie der Führungsebene gegeben sein. Die Methoden Mitarbeitermotivation, Mitarbeiterbefragung sowie Mitarbeitergespräch dienen dazu, die Veränderungsbereitschaft zu analysieren. Wissensmanagement wird dazu verwendet, Wissen aufzubauen, weiterzugeben und zu speichern. Durch Mitarbeiterschulungen wird Wissen weitergegeben und in der Gruppe Motivation aufgebaut. Coaching baut auf Expertenwissen auf, das den Veränderungsprozess unterstützend begleitet. Open Space bietet einen Freiraum, um gemeinsam Probleme zu analysieren und zu einem Ergebnis zu kommen. Zusammenfassend kann festgehalten werden, dass Selbstmotivation der wesentliche Faktor für einen Veränderungsprozess ist. Alle anderen angeführten Methoden wirken unterstützend oder analysierend. Die Führungsebene muss so viele Informationen über den Mitarbeiter einholen, dass ein Change Management Prozess durchgeführt werden kann. Dabei muss die Zieldefinition seitens des Managements transparent für den Mitarbeiter sein.

Diplomarbeitsposter Graczoll Sebastian

Sebastian Graczoll

Masterstudium Computational Intelligence
Abstract:

VMTL (Vienna Modular Termination Laboratory) is a tool for automated termination proof search for term rewriting systems (TRSs). It is based on the dependency pair (DP) framework. In this setting an initially given TRS is first transformed into a so-called DP problem which is then successively simplified using DP-processors until (hopefully) the problem becomes trivial, which means that termination of the initial TRS has been proved. Once the DP method has been started, it is not possible any more to go back from DP problems to corresponding TRSs. Therefore, it is desirable to have strong and flexible preprocessing mechanisms at hand that simplify the original TRS as much as possible, in a way such that (non-)termination is preserved, before the DP analysis is started. In this master's thesis, we design and implement a preprocessing framework for VMTL, that allows for a modular integration of direct termination proof methods. Furthermore, two new approaches for proving termination of TRSs are added, namely Knuth-Bendix Orderings (KBO) and Semantic Labeling. Both techniques are incorporated as direct methods and as DP-processors. In many cases, the proof search of direct methods and DP processors can be modelled efficiently as a SAT or SMT problem. In order to ease the generation and representation of such problems, we develop a new SAT/SMT solving toolkit for use within VMTL.

Diplomarbeitsposter Lindenbauer Beate

Beate Lindenbauer

Masterstudium Medizinische Informatik
Abstract:

Informationssysteme im Gesundheitswesen durchleben im Moment ein enormes Entwicklungswachstum. Besondere Bedeutung kommt dabei Krankenhausinformationssystemen zu, aber auch diverse andere Programme, die im klinischen Sektor eingesetzt werden, wie beispielsweise Therapieplanungssoftware, Medikationssysteme, spezielle Programme für Alten- und Pflegeheime oder Wunddokumentationssoftware, sind nach aktuellem Stand einem kontinuierlichen Wachstum unterworfen. Damit klinische Systeme in den unterschiedlichsten Institutionen wie Krankenhäusern oder Arztpraxen erfolgreich Einsatz finden, dient als grundlegender Aspekt für die Verwendung der Plattformen die Akzeptanz potentieller Anwender. Demzufolge ist die Vermittlung des konkreten Nutzens, der sich für Benutzer durch die Verwendung von Informationssystemen in medizinischen Einrichtungen ergibt, von zentraler Bedeutung. Die vorliegende Arbeit stellt unterschiedliche aktuelle Methoden vor, die die Akzeptanz für klinische Informationssysteme bei medizinischen Fachkräften erhöhen können. Dabei wird der Fokus auf Software im Bereich der Wundheilung gelegt und die klinische Dokumentationsplattform W.H.A.T. (Wound Healing Analyzing Tool) vorgestellt. Aus den in der Theorie behandelten Möglichkeiten zur Steigerung der Systemzustimmung werden drei Verfahren detailliert erörtert: die Usability-Evaluierung, die Erstellung eines Folders und die Anfertigung eines Videos. Im Rahmen der Dokumentationsplattform W.H.A.T. werden diese drei Methoden exemplarisch umgesetzt. In den Ergebnissen werden schließlich Verbesserungsvorschläge zur Erhöhung der System-Usability identifiziert. Zur Erzielung der Ergebnisse wurden ein Kriterienkatalog und die Evaluierung in Form von Usability-Tests angewendet. Zusätzlich werden in den Ergebnissen der erstellte Folder und das Video vorgestellt.

Diplomarbeitsposter Mündler Anke

Anke Mündler

Masterstudium Informatikmanagement
Abstract:

Die Entwicklung von Softwareprodukten sowie Softwaresystemen steht vor der Herausforderung, in der Komplexität steigende Projekte in kürzerem Zeitraum mit weniger Budget und höherer Qualität durchführen zu müssen. Dadurch ist es für ein Softwareentwicklungsprojekt von entscheidender Bedeutung, den Entwicklungsprozess effizient umzusetzen, sodass dem Einsatz von wiederverwendbaren Softwarekomponenten nach wie vor grosse Bedeutung zukommt. Davon betroffen ist auch die Software Qualitätssicherung, die Teststrategien und Testmethoden gezielt einsetzen muss, um Redundanzen bei der Testfallerstellung und Testfalldurchführung zu vermeiden, sowie das Kosten-Nutzen Verhältnis optimal für das Projekt zu gestalten. Diese Arbeit baut auf bereits bekannte Entwicklungsmodelle und darin entwickelte An-sätze der Softwarequalitätssicherung inklusive der Testprozessverbesserung und der Grundlagenforschung zu Softwareproduktlinien auf. Im Rahmen eines Fallbeispiels wird die Optimierung eines bestehenden Testprozesses innerhalb einer e-Health Soft-ware Produktlinie analysiert und konkret erarbeitet, die invariante und variable Soft-warekomponenten je nach Produkt umfasst. Durch den Einsatz des Test Process Impro-vement (TPI) Assessments wurden Schwachstellen im bestehenden Testprozess aufge-zeigt, Optimierungen festgelegt, abgestimmt und umgesetzt. Abschließend wurden diese Verbesserungsschritte durch ein weiteres TPI Assessment evaluiert. Dabei konnte gezeigt werden, dass die Bereiche der Teststrategie, Testmethodik sowie des Testrepor-tings ebenso wie die Professionalität der Tester hinsichtlich ihrer Effizienz und ihres Reifegrades innerhalb des TPI Modells verbessert wurden. Dieses positive Resultat konnte durch ein dokumentiertes Testkonzept nach [IEEE829] unter Einbeziehung der Software Produktlinienaspekte und gezielte Schulungen der Testmannschaft in Bezug auf die Teststrategie als auch die Testmethoden erreicht werden.

Diplomarbeitsposter Rainer-Harbach Marian

Marian Rainer-Harbach

Masterstudium Medizinische Informatik
Abstract:

The task of proving the correctness of software (formal verification) has been a research topic for many years. Despite that, formal methods still have not been widely adopted in practical areas. A key reason for this has been the lack of accessible yet powerful tools that are able to efficiently support the software engineer in this complex exercise. In the last few years, a new generation of tools has appeared: They are aimed at the verification of programs written in programming languages such as C or Java and claim to be usable by software engineers without education in formal methods. This thesis gives an overview of some theoretical aspects of formal verification. A number of tools is extensively described, and some of them are selected to compete in a practical comparison. The comparison is based on tasks that are commonly encountered in software development. Some general thoughts on requirements for formal verification tools in industry and teaching are also given. The tools analyzed are CBMC, Escher C Verifier, Frama-C/Jessie, Frege Program Prover, KeY, Perfect Developer, Prototype Verification System, VCC and VeriFast.

Diplomarbeitsposter Szolarz Christian

Christian Szolarz

Masterstudium Medieninformatik
Abstract:

Gegenstand der Diplomarbeit ist ein Editor zum Erstellen und Bearbeiten von Wissensbasen. S’UPREME (Siemens' Configuration Problem Solving Engine & Methodology) ist ein objekt- und constraintbasiertes Framework zur domänenspezifischen Erstellung eines Produktkonfigurators. Die Diplomarbeit zeigt am Beispiel S’UPREME benutzerfreundliche Methoden zur Darstellung und Bearbeitung einer Wissensbasis über eine grafische Schnittstelle auf und präsentiert Überlegungen zu Architektur und Design. Es werden Kriterien für den Entwurf eines Wissensbasis-Editors gesammelt und Anforderungen an die Arbeitsumgebung des Knowledge-Engineers erarbeitet. Die gewonnenen Erkenntnisse bilden die Grundlage für die Implementierung eines neuen Wissensbasis-Editors für S’UPREME. Am Beginn der Arbeit steht eine Anforderungsanalyse für einen objektorientierten, constraintbasierten Wissensbasis-Editor. Durch Evaluierung und Vergleich existierender Model-Driven-Design (MDD) Tools / Frameworks in Bezug auf die Entwicklung eines Wissensbasis-Editors werden Ideen gesammelt und der Stand der Technik analysiert. Typische Constraints von bestehenden S’UPREME Wissensbasen werden analysiert und kategorisiert. Der Hauptteil der Arbeit beschäftigt sich mit dem Entwurf und der Entwicklung von GEOCK, einem neuen Wissensbasis-Editor für S’UPREME. Der Editor wird in der Programmiersprache Java entwickelt und als Plug-In für die IDE Eclipse bereitgestellt. Kernelement dieses Editors ist eine UML-ähnliche Ansicht zum Visualisieren und Editieren eines Wissensbasis-Modells. Des Weiteren bietet der Editor Funktionen zum Validieren von Modellen, zur Codegenerierung und zum Formulieren komplexer Logik, wie beispielsweise Constraints, in Java-Code.

Diplomarbeitsposter Willner Viktoria

Viktoria Willner

Masterstudium Medizinische Informatik
Abstract:

Die vorliegende Arbeit dient der Erhebung der Anforderungen an einen Animal Health Record, die elektronische Patientenakte für Tiere. Konkret beschränkt sich die Arbeit auf die Kleintiermedizin und die Anforderungen seitens der Veterinärmedizin. Obwohl konkrete Applikationen von der Software-Industrie bereits entwickelt wurden, existieren derzeit, im Gegensatz zur Elektronischen Patientenakte der Humanmedizin, wenige wissenschaftlich evaluierte Arbeiten zu diesem Thema. Da die Anforderungen an die Elektronische Patientenakte für Kleintiere bisher noch nicht durchgängig wissenschaftlich erarbeitet und dargestellt wurden, stellt diese Arbeit eine Einführung in die Thematik sowie eine konzentrierte Initialrecherche dar.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Lang Lukas

Lukas Lang

Masterstudium Computational Intelligence
Abstract:

Graph cut methods have evolved to a well-investigated and acknowledged method in computer vision. They have successfully been applied to a great variety of applications such as medical image processing, image restoration and segmentation, and many more. Many problems in computer vision arise from the need of determining the maximum a posteriori estimate in a stochastic Markov random field model, which in fact is equivalent to minimizing some energy function. These energies incorporate on the one hand the deviation from observed data and on the other hand the smoothness characteristics of the solution. For a certain type of energy functions, graph cuts provide a novel way to exactly infer the maximum a posteriori estimate by computing a minimum cut. The energies are modeled as flow networks and due to the important max-flow-min-cut theorem the minimum cut can be found efficiently by computing the maximum flow. However, as soon as such energy function increases in complexity, either by extending the range of labels (multilabel problem) or by adding complex interaction potentials, the problem of inferring the exact MAP estimate becomes NP-hard. Especially the subject of image denoising, which is the reconstruction of an image that has been degraded by noise, has received extensive attention from the image analysis community. Several continuous regularization methods for denoising have been proposed. In the course of this work we investigate the applicability of graph cut methods and approximations for image denoising. In particular, we study discrete forms of first-order regularization models. Moreover, on the basis of test images which were artificially degraded by (e.g. Gaussian) noise we conduct a series of experiments with known graph constructions and show that even complex energy functions can be approximated with sufficient quality.

Diplomarbeitsposter Melbinger Stefan

Stefan Melbinger

Masterstudium Software Engineering & Internet Computing
Abstract:

Nowadays, there are a variety of software development tools and methodologies. If a tool is used without further guidance, it is often not clear what to do with it. On the other hand, if the developer is provided only with a methodology, he may still wonder how to perform the prescribed tasks. However, even if both tool and methodology are present, the connection between these two supporting systems is still not immediately obvious to the developer. This gap became apparent during work on the EU-funded ReDSeeDS Project. While providing a set of powerful languages, a profound high-level methodology and a tool supporting the suggested development process, there was no connection between primary tasks - the major objectives that a user wants to achieve - and secondary tasks - which have to be performed in order to accomplish the primary tasks. This thesis presents a prototypical solution to this problem by providing guidance on how to tightly couple a software development methodology with a certain Eclipse Platform-based tool by transforming the methodology to a Web-based representation and linking to so-called cheat sheets within the tool. Thus, the Web pages present the primary tasks that need to be accomplished and link into the tool, where secondary tasks are presented and the user receives detailed step-by-step instructions on how to proceed. In addition, it is possible to invoke tool functionality directly from these cheat sheets.

Diplomarbeitsposter Schuster Rainer

Rainer Schuster

Masterstudium Computational Intelligence
Abstract:

In dieser Diplomarbeit wird die Anwendung von Clusteringalgorithmen untersucht, um das Hierarchical Ring Network Problem (HRNP) zu lösen. Wenn das Netzwerk als Graph repräsentiert ist, ist dieses NP-vollständige Problem wie folgt definiert: Gegeben ist Menge von Knoten welche jeweils einer von drei Schichten zugewiesen sind, und eine Kostenfunktion, welche die Verbindungskosten zwischen zwei Knoten zuweist. Gesucht ist ein zusammenhängendes Netzwerk mit minimalen Gesamtkosten, wobei dieses bestimmte Struktureigenschaften zu erfüllen hat, welche im Detail in der Diplomarbeit beschrieben werden. Die grundlegende Idee um dieses Netzwerkdesign-Problem zu lösen, ist die Knoten mit Hilfe von hierarchischen Clusteringalgorithmen anzuordnen und die resultierende Hierarchie für nachfolgende Heuristiken zu verwenden, welche die Ringe finden. Strategisches Variieren der erlaubten Ringgröße hilft der ersten Heuristik Ringe unter Benützung der Cluster-Hierarchie zu finden. Die zweite Heuristik baut auf den in der vorherigen Schicht gefundenen Ringen auf, indem sie nach gültigen Pfaden sucht, die an diese Ringe angeschlossen werden können. Drittens wird eine Reparaturheuristik angewendet, welche versucht verbleibende Knoten zu bestehenden Ringen zuzuweisen. Zuletzt werden lokale Suchverfahren eingesetzt, um die Gesamtkosten zu verbessern. Um den Lösungsansatz zu überprüfen, wurden zwei Testinstanz-Generatoren implementiert, ein zufallsbasierter und einer der auf dem bekannten TSPLIB-Archiv aufbaut. Die Evaluierung der zufallsbasierten Testinstanzen hat gezeigt, dass alle drei Heuristiken sämtliche Instanzen lösen konnten, wobei Girvan-Newman und Kernighan-Lin in jedem Testlauf Lösungen gefunden haben, war dies bei K-means nicht der Fall. Mit den TSPLIB-basierten Testinstanzen konnte nicht mit allen Clusteringalgorithmen eine Lösung erzielt werden, aber zumindest war für jede Testinstanz mindestens ein Clustering-Verfahren erfolgreich.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Basch Christian

Christian Basch

Masterstudium Visual Computing
Abstract:

Zur Visualisierung volumetrischer Daten stehen zahlreiche Möglichkeiten zur Verfügung. Ein Datensatz kann mittels Slicing (Darstellung von einzelnen Schnitten durch das Volumen), Direktem Volumenrendering (DVR), oder auf abstraktere Weise mittels Histogrammen oder Streudiagramm dargestellt werden. Um Zusammenhänge zwischen den einzelnen Ansichten zu erkennen, stehen Linking und Brushing Methoden zur Verfügung. Dabei werden Elemente in einer Ansicht hervorgehoben, wenn sie in einer anderen Ansicht ausgewählt wurden. Aufgrund ihres Ursprungs in wissenschaftlicher Visualisierung, ist diese Methode sehr gut auf 2D Datenrepräsentationen, wie Streudiagrammen, anwendbar. Allerdings ist sie weniger nützlich, wenn die Auswahl der Voxel direkt am Volumen durchgeführt wird. Aus diesem Grund wurden im Rahmen dieser Diplomarbeit Möglichkeiten untersucht, die Zusammenhänge zwischen den unterschiedlichen Darstellungsformen aufzuzeigen, ohne eine Auswahl an Voxeln treffen zu müssen. Dies wurde realisert, indem Voxel mittels animierter Übergänge zwischen den Repräsentation wechseln. Dafür wurden Methoden wie versetzte Animationen und Be- und Entschleuningung adaptiert, die bereits bei der grafischen Auswertung statistischer Daten angewendet wurden.

Diplomarbeitsposter Gschwantner Fritz-Michael

Fritz-Michael Gschwantner

Masterstudium Visual Computing
Abstract:

For Non--destructive testing (NDT) Computed Tomography (CT) is often used to get insights of the inner parts of an object. Certain features can be automatically segmented and quantified in CT datasets. However, due to various effects during the acquisition of the data, the original boundaries of two materials within the objects are not accurately represented in the dataset. This thesis describes a method to reconstruct these boundaries for automatically segmented features on a subvoxel level of the dataset. They are searched along the gradient of the data, using an edge--detection approach commonly used in image processing. The result is then represented as a distance field and further quantified through over--sampling and measuring. For a variety of datasets it is shown that these reconstructed boundaries are indeed providing a more accurate representation of the original segmented region. Further comparisons are made with a method that simply tries to improve the visual appearance through smoothing.

Diplomarbeitsposter Gurbat Roman

Roman Gurbat

Masterstudium Visual Computing
Abstract:

Naturereignisse, wie Überflutungen, können von der Menschheit nicht verhindert werden. Sie zu ignorieren kann zu katastrophalen Folgen führen. Computersimulationen werden verwendet, um deren Eigenschaften zu analysieren. Daraus werden Strategien entwickelt, mit deren Hilfe Schäden vermindert werden sollen. Visdom ist ein integriertes Visualisierungssystem um Überflutungssimulationen zu analysieren. Benutzer können verschiedene Barrieren errichten und deren Effizienz testen. Die dadurch entstehenden Alternativszenarien können visualisiert und analysiert werden. Um die virtuelle Überflutung zu manipulieren, müssen Simulationsparameter verändert werden. In Visdom werden diese über numerische Werte oder Schieberegler gesteuert. Die meisten Anwendungsfälle benötigen eine schnelle Benutzerinteraktion. Das Erweitern von Visdom durch ein sketch-basiertes Interface soll die Steuerung der Simulation vereinfachen und die Produktivität steigern. Visdom ist durch das auf Nodes basierte Design hoch modular. Ein neu implementierter Node bietet die Möglichkeit eine Spline zu erzeugen und zu manipulieren. Als Input werden Punkte verwendet, die der User im 3D Fenster definiert. Um Interaktionskommunikation zwischen Nodes in einem Data-flow basiertem System zu ermöglichen, werden Modular Interactors eingeführt. Visuelles Feedback unterstützt den Benutzer während des Prozesses. Die Spline wird durch eine schlauchförmige Geometrie direkt im 3D Fenster repräsentiert. Nach der Konstruktion wird die Zeichnung des Benutzers in Befehle umgewandelt, die die Simulation beeinflussen. Der Spline To Barrier Node wandelt die Spline in Sandsackbarrieren oder mobile Schutzwände um. Als visuelles Feedback werden diese in einem Preview-Modus angezeigt. Der Spline To Force Node interpretiert die Spline als Kraftfeld, welches die Flüssigkeitssimulation direkt beeinflusst. Der Glyph Renderer stellt dem Benutzer Informationen über die wirkenden Kräfte durch ein Feld aus Richtungpfeilen bereit.

Diplomarbeitsposter Hebart Gabriele

Gabriele Hebart

Masterstudium Visual Computing
Abstract:

Der Einsatz von Punktwolken, welche mit Hilfe von 3D Scannern erzeugt werden, hat zur Visualisierung von großen Szenen wie Statuen, Gebäuden, archäologische Ausgrabungsstätten und Städten, stark an Beliebtheit gewonnen. Um mit dieser Technik das gesamte Objekt erfassen zu können sind mehrere Scans erforderlich, welche später zu einer Punktwolke zusammengefügt werden. Die Notwendigkeit von mehreren Scans führt jedoch dazu, dass sich die Bedingungen für die einzelnen Scans (wie zum Beispiel die Tageszeit) verändern, wodurch große Farbunterschiede im fertigen Modell auftreten, die in einem Nachbearbeitungsschritt ausgebessert werden müssen. In dieser Diplomarbeit werden zwei Verfahren angewendet um die Korrektur der Farbunterschiede zu automatisieren und die Farbunterschiede zu minimieren und dadurch eine Verbesserung des Gesamterscheinungsbildes zu erzielen. Das erste Verfahren hat zum Ziel die Lichtsituation der einzelnen Fotos welche während des Scan Prozesses gemacht wurden, anzugleichen. Ein Punktemodell dessen Punkte mit diesen modifizierten Fotos eingefärbt wurden, zeigt weniger Farbunterschiede. Im zweiten Verfahren wird die Farbe einzelner Punkte der gesamten Punktwolke anhand direkt angrenzender Punkte lokal verändert. Dies geschieht durch die Verwendung der angrenzenden Punkte in verschiedenen Filtern. Dadurch sollen die Farbunterschiede minimiert werden, wodurch ein allgemein homogeneres Gesamtbild des Punktemodells erzeugt wird. Die Ergebnisse sind von mehreren Einstellungen und der Wahl des Filters abhängig. Zur Validierung werden beide Verfahren auf unterschiedliche Punktwolken und den Fotos mit denen diese Punktwolken eingefärbt wurden angewendet, und mit dem Original der Punktwolke verglichen.

Diplomarbeitsposter Ketterl Norbert

Norbert Ketterl

Masterstudium Visual Computing
Abstract:

Representing huge triangular datasets in a real-time rendering environment is a challenge which receives continuous attention. There is a growing complexity of geometric meshes on the one hand and an increasing computational power of graphics hardware on the other hand. Although hardware acceleration is very powerful, simplification using software is much cheaper and more flexible. Additionally, for a large class of geometric models, simplification can be performed as a preprocessing step where there is n demand for real-time operations. The underlying theory of this diploma thesis is based on mesh simplification using quadric error metrics. This algorithm was first published by Michael Garland and it was implemented into Aardvark, a sophisticated rendering framework. It contains a comprehensive set of libraries dealing with data structures in general and polygonal mesh data structures in particular. The application takes a triangulated mesh as input and iteratively creates an even more simplified approximation by weighting and collapsing suitable mesh areas. Some surface details will be lost, but the overall shape of the model will be preserved. The presented code can handle models by preprocessing static, closed triangular meshes. The iterative computation stops when a user specified percentage of the original mesh size is reached. A further improvement in a later research project will try to add vertex colors, normals and texture coordinates to the simplification method.

Diplomarbeitsposter Schmidt Johanna

Johanna Schmidt

Masterstudium Visual Computing
Abstract:

Casting is a manufacturing process by which melt is poured into a mould with a cavity of the desired object form and then allowed to solidify. Due to the pouring process as well as during solidification casting defects may appear that can influence the cast objects’ mechanical properties and usability. Designing a new type of casting always requires the production of a new pattern first. Before release of serial production a series of initial samples is created. During this evaluation step possible problems are identified. In the course of this master’s thesis effort, a new approach for first article inspection is introduced. The goal of this approach is to explore a series of industrial CT volumes, with the objective to evaluate the casting design. Using the pipeline investigations of the reliability of the production can be performed. The variability analysis is based on a segmentation approach for defect detection which enables to differentiate discontinuities from the rest of the volume. In case regions of high defect concentration should be identified, a clustering approach is applied to all samples within the series. In the further course the cluster information is used to analyse the variability of the sample series, since they represent regions of high defect concentration. The analysis of large defects, in contrast, directly operates on the data produced by the defect detection stage. The data of all samples is compared to find possible overlaps. For the variability analysis it is important to know whether regions can be found that contain defects in more than one trial sample. The identification of such regions shows that the casting process tends to produce errors in certain parts of the object, which may necessitate a change in the manufacturing process parameters. The visualisation of the pipeline is done by using a 2D transfer function approach in a 3D rendering environment, where the results can be explored individually by the user.

Diplomarbeitsposter Stehno Benedikt

Benedikt Stehno

Masterstudium Visual Computing
Abstract:

The goal of this thesis is to develop a dataflow visual programming language (DFVPL) and a visual editor for the rapid development of visualizations. With this programming language, called OpenInsightExplorer, users can develop visualizations by connecting graphical representations of modules rather than writing source code. Each module represents a part of a visualization program. Modules are designed to function as an independent black box and they start to operate as soon as data is sent to them. This black box design and execution model allows to reuse modules more frequently and simplifies their development.

Diplomarbeitsposter Tanzmeister Georg

Georg Tanzmeister

Masterstudium Visual Computing
Abstract:

In vielen Mixed Reality Applikationen wirken die virtuellen Objekte als wären sie nicht in die Szene integriert und erscheinen daher sehr künstlich. Das liegt unter anderem daran, dass sie anders schattiert werden als die Realen und Phänomene wie indirekte Beleuchtung, Schatten und Verdeckungen nicht konsistent sind. Um solche Effekte zu berücksichtigen benötigt man ein geometrisches Modell der realen Szene sowie Informationen über deren Materialeigenschaften und deren Beleuchtung. Da sich in Mixed Reality Anwendungen all diese Komponenten dynamisch verändern können - man denke zum Beispiel an das Verschieben eines realen Gegenstands - genügt es nicht, diese Daten als Vorverarbeitungsschritt zu modellieren. Die automatische Schätzung von Materialeigenschaften von realen Objekten anhand von Farbbildern ist allerdings mit sehr viel Rechenaufwand verbunden und Laufzeiten von solchen Algorithmen bewegen sich zwischen 20 Minuten und mehreren Stunden. In dieser Diplomarbeit wird ein Algorithmus zur interaktiven 3D Rekonstruktion und BRDF Schätzung vorgestellt, dessen Laufzeit weniger als eine halbe Sekunde beträgt. Diese immense Leistungssteigerung wurde unter anderem durch eine neuartige GPU Implementierung des K-Means Algorithmus erreicht, bei der, neben den Distanzberechnungen, auch die Schwerpunktsberechnungen mit Hilfe von MIP Maps auf die GPU verlagert wurden. Wir verwenden die Microsoft Kinect um Farb- und Tiefeninformationen über die Szene zu bekommen sowie eine Fischaugekamera um die Beleuchtung einzufangen und zeigen, dass Schätzungen von Materialeigenschaften anhand von Farbbildern in Echtzeit machbar sind, wodurch die Verwendung in Mixed Reality Systemen, zur Verbesserung der visuellen Darstellung von virtuellen Objekten, ermöglicht wird.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Eibl Petra

Petra Eibl

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Personal und deren Verfügbarkeit ist ein wichtiger Faktor jedes Unternehmens. Diese Arbeit hat sich zum Ziel gesetzt, sich mit den Grundlagen der Abwesenheitsplanung und deren Umsetzung zu befassen. Am Beispiel eines Unternehmens wurde deren aktuelle Situation untersucht. Mit den aus Interviews gewonnenen Kenntnissen wurde ein Programm zur Abwesenheitsplanung mit Verbindung zu einem ERP-System entwickelt. Im ersten Teil wird das theoretische Rahmengebiet näher behandelt. Da der Informationsaustausch durch eine Applikation erfolgen soll und Personen dabei zusammenarbeiten, wurde auf den Bereich CSCW und Groupware näher eingegangen. Im Bereich Arbeitsrecht wird erklärt, aus welchen Gründen MitarbeiterInnen abwesend sein dürfen und welche Zeiträume sie umfassen darf. Die Benutzung der Applikation soll so einfach wie möglich sein. Daher wurde auf Visualisierung und Usability näher eingegangen. Der zweite Teil der Arbeit beschäftigt sich mit der praktischen Realisierung der Applikation. Des Weiteren wurden nach schon existierenden Programmen für die Abwesenheitsplanung recherchiert. Neben der aktuellen Situation des Unternehmens wurde auf die Entwicklung näher eingegangen. Nach der Realisierung wurde die Implementierung getestet und Verbesserungen erläutert. Ergebnis war eine Applikation, durch welches es einfach ermöglicht wird, Abwesenheiten zu planen und aufeinander abzustimmen. Bei dieser Arbeit hat sich herausgestellt, dass die BenutzerInnen vor allem auf die grundlegenden Funktionen einer Abwesenheitsapplikation Wert legen. Diese Funktionen sollten so einfach wie möglich gestaltet werden und dadurch eine Anwendung leicht durchzuführen sein. Durch die Einbindung der AnwenderInnen in den Entwicklungsprozess wurden Fehler schon früh beseitigt und unnötige Aufwendungen von vornherein vermieden. Das SAP-System konnte als Datenbank dienen. Dadurch wurde es möglich, die Systemanforderungen gering zu halten und dennoch stets aktuelle Daten bereitzustellen.

Diplomarbeitsposter Klemen Sascha

Sascha Klemen

Masterstudium Informatikmanagement
Abstract:

Diese Arbeit befasst sich mit dem Thema Social Networking Software und dessen Einsatz im betrieblichen Geschäftsumfeld. Ausgelöst durch neue Möglichkeiten der Interaktion die mit der Entwicklung des Web 2.0 einhergehen, gewinnen Online Social Networks immer mehr an Popularität. Einst nur in privaten Gebrauch, kommen diese Tools immer häufiger auch im Geschäftsumfeld zum Einsatz. Diese Diplomarbeit untersucht mittels Empirie die Motivationsfaktoren, die Bereitwilligkeit zum Einsatz, sowie die Verbreitung bestimmter Online Social Software in Österreichischen Betrieben und Unternehmen. Ebenso werden subjektive Erfahrungswerte in Zusammenhang mit dem Einsatz von Social Software erhoben. Die Grundlage dieser Studie liefern die erhobenen Daten der Onlineumfrage "Auswirkungen von Social Networking Software" die im Rahmen dieser Diplomarbeit in den Monaten Dezember 2010 und Jänner 2011 durchgeführt wurde. Nach Aufbereitung und Auswertung dieser quantitativen Daten basiert auf einer Nettostichprobe von 282 Datensätzen. Als Strategie zur Gewinnung neuer Kenntnisse wird nach dem Induktionsschluss vorgegangen, wobei man vom Besonderen auf das Allgemeine schließt. Die Kombination der erhobenen Daten mit Trends und Statistiken runden diese Arbeit ab und soll als Wissengrundlage bei Diskussionen dienen.

Diplomarbeitsposter Linhart Thomas

Thomas Linhart

Masterstudium Software Engineering & Internet Computing
Abstract:

Durch die rasante Entwicklung der mobilen Endgeräte in den letzten Jahren gewann das Interaktionsdesign von mobilen Endgeräten immer mehr an Bedeutung. Besonders die Interaktion mittels Touchscreen ist heutzutage enorm präsent. Diese Diplomarbeit gibt, anhand des Goal Directed Design Process von Cooper, eine Einführung in das Interaktionsdesign. Mit Hilfe der Design Pattern von Weir und Noble wurde das Interaktionsdesign von mobilen Geräten beschrieben und ein Kontext zu aktuellen Geräten geschaffen. Der Stand der Technik wurde mittels bestehender Gesten für Touchscreens und anhand bereits existierender physikalischen Spielsimulationen erhoben. Mit Methoden aus dem Goal Directed Design Process wurde ein physikalisches Simulationsspiel für das iPhone von Apple entwickelt. Bei dem Spiel geht es darum, eine Kugel, welche einen definierten Startpunkt hat, mit Bausteinen in ein statisches Ziel zu manövrieren. Der User kann Bausteine mit fiktivem Spielgeld kaufen. Die Bausteine müssen so positioniert werden, dass die Kugel in das Ziel gelenkt wird. Bei der Implementierung wurden die Frameworks Cosos2d und Box2d verwendet. Diese werden in den einzelnen Entwicklungsschritten beschrieben. Die umgesetzte Applikation wurde anhand von User Tests evaluiert. Aus dem Feedback dieser Tests wurden neue Anforderungen formuliert, welche als Aussicht für weitere Entwicklungen dienen. Unter anderem ergaben die Ergebnisse der User Tests, dass einige Interaktionsschritte nicht intuitiv genug erfasst werden konnten.

Diplomarbeitsposter Wimmer Gudrun

Gudrun Wimmer

Masterstudium Medieninformatik
Abstract:

Der ColorTable ist eine spezielle Anwendung für die Stadtentwicklung, die es einer Gruppe von unterschiedlich qualifizierten Akteuren ermöglicht, Stadtplanungskonzepte zu entwickeln. Das System besteht aus einer greifbaren Benutzerschnittstelle (engl. Tangible User Interface), mit der die Beteiligten gemeinsam ihre Interventionen erarbeiten und als eine virtuelle Mixed-Reality-Szene darstellen können. Bei der Arbeit mit dem ColorTable durchlaufen die Teilnehmer verschiedene Kategorien von Aktivitäten. Die vorliegende Diplomarbeit untersucht in einer quantitativen Analyse verschiedene Facetten von Verhalten in den jeweiligen Kategorien mit einem speziellen Schwerpunkt auf Gesten. Die Analyse der Verhaltensweise ermöglichte die Identifizierung von eindeutigen Verhaltensmustern in Bezug auf die Kategorien. Vor allem die Betrachtung der Zeigegesten lieferte weitgreifende Erkenntnisse. Daraus ergibt sich die Schlussfolgerung, dass der ColorTable davon profitieren würde, Zeigegesten in das System zu integrieren.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Di Angelo Monika

Monika Di Angelo

Masterstudium Informatikmanagement
Abstract:

Der Informatik-Unterricht an Österreichs AHS hat wenige Vorgaben: Der Lehrplan ist ein kurz gefasster Rahmenlehrplan, das bm:ukk hat bis dato keine Bildungsstandards für Informatik an der AHS herausgegeben. Es liegt am Engagement der einzelnen Lehrer/innen, ihren Schüler/innen sinnvollen Informatikunterricht zu bieten. Das scheint kein einfaches Unterfangen zu sein: Der Informatikunterricht wirkt oft abschreckend, Programmieren fällt Schüler/innen schwer. Durch eine entsprechende LVA für die didaktischen Informatikstudien soll für angehende Pädagog/innen ein Angebot gesetzt werden, Teile des Informatikunterrichts mithilfe von Robotern (LEGO Mindstorms) schüler/innengerecht umzusetzen. Damit soll einerseits das Interesse der Schüler/innen gewahrt bleiben bzw. geweckt werden, und andererseits das für viele als schwierig empfundene Programmieren „begreifbarer“ gemacht werden. Im Rahmen der Arbeit wird das didaktische Konzept der LVA „Robolab: schüler/innen-gerechte Einführung ins algorithmische Denken und Programmieren“ erstellt und begründet und der zugehörige TUWEL-Kurs entworfen und implementiert. Dabei werden bestehende Konzepte beleuchtet, die Roboter, vor allem aber die LEGO Mindstorms, im Unterricht der Sekundarstufe einsetzen. Des Weiteren wird die didaktische Eignung der Roboterbausätze ausgelotet. Danach werden die didaktischen Grundlagen für die Umsetzung der oben erwähnten LVA als Blended Learning (E-Learning kombiniert mit Präsenzlehre) diskutiert. Der Einsatz des Roboterbausatzes wird anhand der aktuellen Fachdidaktik-Literatur begründet und mit zeitgemäßen didaktischen Methoden umgesetzt. Bei der Konzeption wird einerseits der Aufbau der LVA am Zielpublikum „Studierende mit Lehrabsichten“ ausgerichtet, andererseits werden didaktische Methoden für den Einsatz im Informatikunterricht an einer AHS als Inhalt der LVA passend ausgewählt und im LVA-Konzept umgesetzt. Praktische Erfahrungen aus fünf Semestern bilden den Abschluss.

Diplomarbeitsposter Fellner Markus

Markus Fellner

Masterstudium Medieninformatik
Abstract:

In der heutigen Gesellschaft geht der Großteil der Bevölkerung überwiegend sitzenden Tätigkeiten nach. Wird das so entstehende Bewegungsdefizit in der Freizeit nicht durch ergänzende körperliche Bewegung ausgeglichen, setzt man sich dem Risiko aus, übergewichtig zu werden und chronisch zu erkranken. Übermäßiges Fernsehen und das Spielen von Videospielen werden als Hauptverantwortliche genannt, die aktive Bewegung aus der Freizeitplanung verdrängen. Videospiele können als fesselndes Medium jedoch auch spielerisch aufklären, zur Bewegung animieren und zum Umdenken bewegen. Diese Arbeit soll das Phänomen „Exercise Games“ näher untersuchen und sich Fragen widmen, die primär für die Fachgebiete Human Computer Interaction (HCI) und Game Design von Interesse sind. Eingangs werden die wichtigsten Fachtermini behandelt und die Verwendung grundlegender Begriffe geklärt. Um der Ursache des starken Motivationspotentials von Videospielen nachzugehen, wird untersucht, wie Motivation grundsätzlich entsteht. Ein aktueller Trend ist „Gamification“, der extrahierte Motivatoren aus Videospielen nutzt und in einen nicht-spielerischen Kontext einbindet. Für den praktischen Teil wurden kommerzielle Spielkonsolen und Exergames getestet und evaluiert. Die Evaluierung umfasst die wichtigsten Sensoren, die in modernen Bewegungsinterfaces zum Einsatz kommen und erwähnenswerte Spiele, die Aufgrund besonderer Merkmale aus dem großen Angebot herausstechen. Die Erkenntnisse, die aus der umfangreichen Literaturrecherche und der Bewertung gezogen wurden, bildeten den Ausgangspunkt eines eigenen mobilen Exergame-Konzepts, dessen Entstehung im praktischen Teil dokumentiert wurde. Die Game-Mechanik entstand dabei aus Skizzen und wurde mit Hilfe physischer Prototypen validiert. Um das Gameplay in einer ansprechenden Form präsentieren zu können, wurde zusätzlich ein passendes Szenario entwickelt, das mit einem visuellen Prototyp getestet wurde.

Diplomarbeitsposter Jud Reinhard

Reinhard Jud

Masterstudium Software Engineering & Internet Computing
Abstract:

Eine stetig anwachsende Weltbevölkerung und ein damit einhergehender steigender Energiebedarf mit gleichzeitig aber knapper werdenden Ressourcen wird mittelfristig zu ökologischen, wirtschaftlichen und sozialen Problemen führen. Um dieser Problematik zu begegnen, wurde das Leitprinzip der Nachhaltigkeit (sustainable development) entwickelt. In dieser Arbeit wird unter anderem die geschichtliche Entwicklung des Begriffes beleuchtet. Auf verschiedenen Umweltkonferenzen haben die Staatengemeinschaften über die letzten 40 Jahre hinweg die auf die Menschheit zukommenden Probleme identifiziert und sich Ziele gesteckt, um eine Lösung dieser Probleme oder zumindest eine Abschwächung der Folgen zu erreichen. Diese Lösungen sollen teils durch technischen Fortschritt, aber auch durch ein Einsparen sowie einen bewussteren Umgang mit den zur Verfügung stehenden Ressourcen erreicht werden. Auf dem Energiesektor soll die derzeitige in der Einführung befindliche Smart Metering-Technologie ihren Anteil dazu beitragen. Die bis dato auf Ferrariszähler basierende Stromzählertechnik besteht praktisch seit fast 60 Jahren unverändert. Mit der Smart Metering-Technologie sollen intelligente Stromzähler zu einem sparsameren Verbraucherverhalten führen. Auch stellt die flächendeckende Einführung von Smart Metern eine Grundvoraussetzung für das Stromnetz der Zukunft dar, das sogenannte Smart Grid. In dieser Arbeit soll gezeigt werden, wie versucht wird, die Prinzipien der nachhaltigen Entwicklung auf dem Gebiet des Energieverbrauches mit Hilfe der Technologie des Smart Metering umzusetzen. Des Weiteren werden mögliche Risiken beleuchtet, sei es eine mögliche Gefährdung der Gesundheit, Bedrohung der Datensicherheit oder des Datenschutzes.

Diplomarbeitsposter Karaszek Jakob

Jakob Karaszek

Masterstudium Medieninformatik
Abstract:

Die junge Generation, darunter auch Nerds und Geeks, ist bereits mit dem Internet und seinen Möglichkeiten zur Gestaltung und Selbstverwirklichung aufgewachsen. Sie be-herrscht, aufgrund ihres gesteigerten technischen Interesses, Computer und das Internet wie sonst keiner. In dieser Vorreiterrolle prägt sie das „neue“ Medium entscheidend und entwickelt somit auch zu einem gewissen Grad die Ästhetik des Internets und der Innovationen der Zukunft. In der vorliegenden Arbeit werden die Begriffe Nerd und Geek, deren Bedeutung für die Informationsgesellschaft sowie eine Auswahl ihrer Online-Artefakte und deren ästhetische Beschaffenheit vorgestellt. Darüber hinaus wird der Code-Ästhetik, also der Beschaffenheit des zugrundeliegenden Designwerkzeugs von Softwareprodukten, besondere Aufmerksamkeit geschenkt. Mittels einer Befragung unter Nerds wird zudem noch versucht, einen persönlicheren Einblick in deren Ästhetikverständnis zu gewinnen.

Diplomarbeitsposter Kickinger Nina

Nina Kickinger

Masterstudium Medieninformatik
Abstract:

Designprozesse unterscheiden sich in grundlegenden Punkten von wissenschaftlichen Disziplinen, schaffen es aber dennoch gute Lösungen für Problemstellungen zu liefern. Vorliegende Diplomarbeit setzte sich zum Ziel anhand eines interdisziplinären Designworkshops im Hinblick auf eine Geo- Tracking-Video-Technologie zu ermitteln, ob Designprozesse Wissen generieren und wenn ja, Wissen welcher Art. Im ersten Teil der Arbeit werden theoretische Grundlagen zu Wissensgenerierung und Design im wissenschaftlichen Kontext gegeben. Darauffolgend wird im praktischen Teil zunächst der Planung des Designworkshops besondere Aufmerksamkeit geschenkt. Abgesehen von der Beschreibung der von der Autorin erstellten TCam-App werden die Ergebnisse aufgrund von Videobeobachtung und Feedback der TeilnehmerInnen präsentiert. Es zeigt sich anhand der Generierung von produktbezogenem, personenbezogenem und prozessbezogenem Wissen, dass (interdisziplinäre) Designprozesse das Potenzial zur Wissensgenerierung haben, dennoch aufgrund der Kontextsensibilität bezüglich weiterer Generalisierungen vorsichtig umgegangen werden muss. Im Low-Tech-Prototyp für eine Web-Plattform manifestiert sich das aus dem Designprozess hervorgegangene und von der Autorin angereicherte Wissen. Über einen Vergleich der praktischen Vorgehensweise der Autorin mit ausgewählten Theorien wird die Arbeit schließlich in einen wissenschaftlichen Kontext eingebettet, wobei auch Aufschlüsse über andere Möglichkeiten in der Designforschung gegeben werden.

Diplomarbeitsposter Kopfer Christof

Christof Kopfer

Masterstudium Medieninformatik
Abstract:

This thesis is settled around improving communication skills and behaviour change facilitated by technology. More precisely, a sensor-based tool, called SenseRhetoric, was developed for supporting professional communication coaches in training students doing presentations. For this purpose, bodily signals like pulse, posture, gesture and voice volume are sensed and played back to the students to provide some sort of feedback and enable them to change their body language, habits and hence their behaviour. To our best knowledge, there is no previous research that similarly applies biosensors and movement capture to improving communication skills. To explore the requirements and limitations of a sophisticated prototype, semi-structured expert interviews and a design workshop were held. This initial research showed that an unobtrusive, self-explanatory, glanceable ambient display that offers the right feedback in the right moment could have the potential to trigger behaviour change and work in combination with a retrospective video analysis containing overlaid data. After the implementation was finished using an iterative design process, the SenseRhetoric prototype was evaluated within a major real-life field study. Participants considered the ambient display helpful in general but felt really enthusiastic about the retrospective overlay. This thesis concludes with a detailed summary of research insights and guidelines for the augmentation of communication coaching with sensor technology.

Diplomarbeitsposter Kraicsich Alexander

Alexander Kraicsich

Masterstudium Medieninformatik
Abstract:

Social Networks wie Facebook sind in den letzten Jahren immer beliebter geworden. Menschen nutzen Social Networks um Kontakte zu Familie und Freunden zu pflegen, neue Menschen kennenzulernen usw. Gleichzeitig besitzen immer mehr Menschen ein Smartphone, mit dem sie online sind und Social Media nutzen. Location Based Services verwenden Positionsinformationen, die von Smartphones bereitgestellt werden um ihren Benutzern einen Mehrwert zu liefern. Es besteht jedoch die Gefahr, dass durch die leicht- fertige Preisgabe von persönlichen Daten oder des eigenen Standortes die Privatsphäre eingeschränkt wird. Diese Arbeit befasst sich im ersten Teil mit der Theorie von Social Media, beschreibt die Konzepte der Privatsphäre und gibt eine Übersicht der Positionsbe- stimmungstechniken in Location Based Services. Im zweiten Teil der Arbeit wird SAD - Surveillance Awareness Database, ein Projekt in den Spannungsfeldern Social Media, (Selbst-)Überwachung und Privatsphäre, vorgestellt. Die User von SAD sollen Überwa- chungskameras, die Menschen an öffentlichen Orten beobachten, mit ihrer eigenen Kamera dokumentieren. Ziel von SAD ist die Entstehung einer flächendeckenden, welt- weiten Datenbank von Überwachungskameras.

Diplomarbeitsposter Lohwasser Stephan

Stephan Lohwasser

Masterstudium Medieninformatik
Abstract:

Mobiltelephone mit integrierten, kleinen Picoprojektoren (sogenannte ‚Projector-phones‘), versprechen die Art und Weise, mit welcher wir mobile Technologien benutzen und erleben, grundlegend zu verändern. Und während die aktuell erhältlichen Geräte ausschließlich für die mobile Präsentation von Bildern und Videos beworben werden, haben DesignerInnen und WissenschafterInnen begonnen ein breites Spektrum neuer Interaktionsformen, Inhalte und Anwendungen für dieses Medium zu erkunden. Diese Masterarbeit erforscht mobile Projektionstechnologien in Bezug auf ihr Potential für spielerische Interaktion und Immersion. Durch die Kombination eines Picorpojektors mit bewegungserfassenden Sensoren wurde ein mobiles Augmented Reality (AR) System entwickelt, welches immersive Erlebnisse erzeugt, indem es UserInnen ermöglicht virtuelle Räume zu erforschen und mit virtuellen Objekten zu interagieren. Mittels Methoden der digitalen Kunst und den Prinzipien des Ludic Designs, wurden verschiedenste Technologien, Interaktionen und ästhetische Konzepte prototypisch implementiert. Die Evaluierung dieser Prototypen geschah in Feldtests, in denen UserInnen eingeladen wurden mit den entstandenen Artefakten zu interagieren. Ziel war es war die Reaktionen und Erlebnisse der UserInnen auf die Technologie durch Beobachtungen, Interviews, Bilder und Videos zu verstehen. Eine Analyse der gesammelten Daten wurde verwendet die Qualität der Technologien, der Interaktionen, der Ästhetik des System zu beurteilen, um daraus Prinzipien für zukünftige Anwendungen abzuleiten.

Diplomarbeitsposter Luckner Naemi

Naemi Luckner

Masterstudium Medieninformatik
Abstract:

Diese Arbeit beschäftigt sich mit der Frage, inwieweit der Einsatz von Social Software im Kontext von E-Learning Systemen positive Auswirkungen auf die Leistungen der BenutzerInnen hat. Es wird untersucht, ob Studierende, die Social Software im Bildungskontext anwenden, bessere Ergebnisse liefern als jene, die versuchen, allein zu arbeiten. Die Arbeit bietet einen Überblick über Entwicklung und Auswirkungen von Lerntheorien, E-Learning und Social Software in der heutigen Gesellschaft. Weiters werden bereits bestehende Projekte und Untersuchungen zum Thema aufgelistet. Anschließend wird ein Projekt vorgestellt, anhand dessen die Fragestellung konkret untersucht wird. Das Projekt wurde an der Technischen Universität Wien entwickelt, und besteht aus mehreren Komponenten, die alle wichtigen Bereiche einer E-Learning Applikation abdecken sollen. Die Komponenten wurden durch verschiedene Social Software Elemente erweitert und sollen einen interaktiven und regen Austausch aller TeilnehmerInnen zu den Inhalten der Vorlesungen fördern. Das Projekt findet seit einigen Semestern Einsatz in verschiedenen Lehrveranstaltungen an der Technischen Universität Wien. Die daraus resultierenden Daten werden in dieser Arbeit ausgewertet und die Ergebnisse präsentiert. Abschließend werden Möglichkeiten der Weiterentwicklung des Projekts diskutiert.

Diplomarbeitsposter Martin Markus

Markus Martin

Masterstudium Medieninformatik
Abstract:

Die Diplomarbeit beschäftigt sich mit der Aufgabe ein assistierendes technisches Hilfsmittel für an Zerebralparese leidende Personen zu entwickeln, welches in der Lage ist Spastiken zu erkennen. Die Fragestellung zielt darauf ab zu überprüfen ob es möglich ist, unter Zuhilfenahme dieses Gerätes, eine deutliche Reduzierung der auftretenden Spastiken zu erreichen. Um sich einen Überblick über, für die Entwicklung notwendige Themenbereiche, wie Zerebralparese, Neuroplastizität sowie bereits existierende Geräte zu verschaffen wurde eine umfangreiche Literaturrecherche durchgeführt und die Ergebnisse beziehungsweise Erkenntnisse der selbigen schriftlich festgehalten. Zusätzlich wurden drei Interviews mit einer betroffenen Person, deren Vater sowie einer Therapeutin geführt um die jeweilige persönliche Meinung in Bezug auf Anforderungen an das zu entwickelnde Gerät sowie Einschränkungen im Alltag in Erfahrung zu bringen. Diese Diplomarbeit ist Teil einer geteilten Diplomarbeit und beschäftigt sich im Allgemeinen mit dem erfolgreichen Design eines Handschuhs, welcher in der Lage ist Spastiken in den Handgelenken zu erkennen. Die Durchführung der Interviews sowie daraus resultierende technische Aspekte wie etwa die Auswahl passender Hardware, die Zusammenstellung der Prototypen sowie das Durchlaufen mehrerer Design Iterationen werden im Verlauf der Diplomarbeit detailliert vorgestellt. Die abschließende Evaluierungsphase mit dem Patienten ermöglicht es, die bereits erwähnte Fragestellung der Sinnhaftigkeit eines solchen Gerätes zu bejahen. Die Anzahl der auftretenden Spastiken konnte nach Aussage des Patienten deutlich reduziert werden. Den Abschluss der Diplomarbeit bilden eine Diskussion über die erzielten Ergebnisse sowie eine Schlussfolgerung in wie fern die bereits erreichten Ergebnisse in naher Zukunft noch verbessert werden könnten.

Diplomarbeitsposter Mavric Martin

Martin Mavric

Masterstudium Business Informatics
Abstract:

Die Beliebtheit des Internet hat in den letzten Jahren rasant zugenommen. Immer mehr Menschen greifen auf das scheinbar unendliche Informationsangebot zu. Neben Informationsbeschaffung, seien es die täglichen Nachrichten oder Fahrplanauskünfte, möchten viele Menschen aktiv teilnehmen und selbst Inhalte bereitstellen. Beispielsweise auf der eigenen Webseite, um die eigenen Kochkünste zu präsentieren. Oftmals können Menschen mit eingeschränktem Sehvermögen aus Mangel an vorhandenen Tools, wie einem XHTML Editor, nur mit großer Mühe am Internetgeschehen teilnehmen. In dieser Arbeit werden unterschiedliche Auswirkungen von Sehbehinderungen dargestellt. Hilfsmittel wie Braillezeile, Screenreader oder unterstützende Einstellungen von Windows werden aufgezeigt. Im Anschluss wird ein XHTML Dokument betrachtet, bearbeitet und geprüft. Im praktischen Teil wird der Editor erstellt. Im Benutzerhandbuch werden die Funktionen näher erläutert.

Diplomarbeitsposter Moser Johannes

Johannes Moser

Masterstudium Medieninformatik
Abstract:

Thema dieser Diplomarbeit ist die Implementierung eines Software-Prototyps, der Kindern mit einer Sehbehinderung eine Karte zugänglich macht. Die Karte soll mit Audioinformationen hinterlegt sein, welche von den Kindern selber editiert werden können. Das Editieren soll einen Lerneffekt mit sich ziehen. Dieser soll anhand wissenschaftlicher Recherche belegt werden. Der Software-Prototyp soll um einen einfachen Hardware-Prototypen ergänzt werden, dessen Relevanz sich aber auf seine Form reduziert. Es soll kein kompletter Prototyp, der aus Hardware und Software besteht, erstellt werden. Der Fokus des Prototypen liegt auf Kindern, die an einer Sehbehinderung leiden. Am Anfang steht eine wissenschaftliche Recherche, an deren Ende eine Liste von vergleichbaren Arbeiten zur Verfügung gestellt wird. Im Suchfeld sind dabei ähnliche Hardware- und Software-Implementationen sowie allgemeine Literatur zu Sehbehinderung und Lernformen bei Kindern enthalten. Aus diesen Arbeiten wird gemeinsam mit den Vorgaben des Projektteams ein Konzept erstellt. Daraus können essentielle Fragestellungen und Kernprobleme abgeleitet werden. Der Prototyp wird anhand des Konzepts implementiert und über mehrere Testphasen hinweg verbessert. Diese Tests reduzieren sich auf einfache Usertests unter den Gesichtspunkten der definierten Anforderungen. Am Ende steht eine Analyse der Implementierung. Im Rahmen der Diplomarbeit sind jeweils zwei Hardware- und Software Prototypen entstanden. Sie basieren auf einem fundierten Konzept. Mit den beiden aktuellsten Prototypen lässt sich ein möglicher Aufbau akzeptabel nachstellen. Der Software Prototyp hat ein komplett auf Audio gestütztes User-Interface und kann mit einer berührungsempfindlichen Oberfläche verbunden werden. Der Hardware Prototyp besteht aus Holz und bietet jede Menge Möglichkeiten zum Verbau von Hardware Komponenten. Kernprobleme wurden identifiziert, beleuchtet und eine mögliche Lösung geboten.

Diplomarbeitsposter Naber Sarah

Sarah Naber

Masterstudium Medieninformatik
Abstract:

Die sukzessive Verbreitung von weltweiten Videoüberwachungsanlagen ist zunehmend Thema im sozialen, politischen und auch künstlerischen Diskurs. SAD (Surveillance Awareness Database) ist ein partizipatorisches Media-Art-Projekt mit politischem Inhalt, das das Ziel einer weltweiten Datenbank von Überwachungskameras verfolgt. „Quis custodiet ipsos custodes“ ist der Leitsatz des Projektes. Es werden drei Formen der Überwachung (CCTV, Sousveillance, Selbstüberwachung) beschrieben, die in das Projekt implementiert sind, das im Spannungsfeld zwischen Sicherheit und Freiheit agiert und dessen Auswirkungen auf die Lebenspraxis bewusst machen soll. Der erste Abschnitt dieser Diplomarbeit umreißt die Vor- und Nachteile von Überwachungsanlagen. Am Beginn stehen geschichtliche Aspekte und formale Grundlagen, die die Begriffe Anonymität, Pseudonymität und Vertraulichkeit eingrenzen. Darüber hinaus werden die mit 9/11 einhergehenden Eingriffe in die BürgerInnenrechte und die Bedeutung der Termini Kontrolle und Sicherheit näher definiert. Die rechtlichen Grundlagen in Österreich, einige Fallbeispiele und gängige Mythen der Videoüberwachung sowie deren Auswirkungen geben eine Einführung in die Thematik und liefern den theoretischen Grundstock für den zweiten Teil der Diplomarbeit. Abschließend erfolgt eine Zusammenfassung von bestehenden Projekten, die die Problematik Videoüberwachung im Rahmen von Kunst und Medien reflektieren. Der zweite Teil der Arbeit gibt einen detaillierten Einblick in das Design und die Funktionalität der Webseite SAD und  beschreibt das Anwendungsspektrum, wobei einzelne Prozesse (zum Beispiel der Ablauf der Dokumentation einer Kamera) an Hand von Bildmaterialien veranschaulicht werden. Alle Ergebnisse des Designprozesses wurden im Rahmen der Webseite www.sadproject.tv umgesetzt bzw. in der mobilen iPhone-Applikation realisiert.

Diplomarbeitsposter Schuh Josef

Josef Schuh

Masterstudium Medieninformatik
Abstract:

Ziel dieser Arbeit war es, erfolgreiche Mechaniken sozialer Spiele zu analysieren und aufbauend darauf einen Prototyp eines serious games zu entwickeln. Die Arbeit ist Teil eines Forschungsvorhabens unter der Leitung des International Institute for Applied Systems Analysis (IIASA) in Zusammenarbeit mit dem Institut für Gestaltungs- und Wirkungsforschung (IGW). Dieses Forschungsvorhaben hat als Ziel, Landmarken mithilfe eines Computerspieles zu validieren. Als Ausgangspunkt dienen die Spielekategorien social games, serious games und Geographiespiele. Die Methode des Crowdsourcing wurde präsentiert und ihre Wichtigkeit für das Projekt anhand eines Beispiels gezeigt. Landmarken und die Gründe für die Notwendigkeit ihrer Erfassung wurden analysiert. Um eine klare Struktur für das Ergebnis dieser Arbeit zu erstellen, wurden weiters die Begriffe Prototyping und Balancing vorgestellt. Die für den Designprozess wichtigen physikalischen Prototypen wurde detailliert betrachtet.
Aufbauend auf den Zielvorgaben der Projektpartner des Forschungsvorhabens wurden verschiedene Spieleplattformen analysiert und ihre Vor- und Nachteile herausgearbeitet. Dabei hat sich gezeigt, dass die Problemstellung dieser Arbeit mit einem Spiel, welches Facebook als Plattform verwendet, gelöst werden kann. Die als Ergebnis dieser Arbeit präsentierte Spielidee läuft in drei Phasen ab, welche sich in einem gewissen Zeitrahmen wiederholen. Eine kleine Anzahl an repetitiven Aufgaben hat sich als optimale Herangehensweise für Personen herausgestellt, welche nur wenig Zeit in ein Spiel investieren. Zusätzlich wurde versucht, bestehende soziale Strukturen von Spielern und Spielerinnen zu nutzen, um eine große Anzahl an Personen für das Spiel zu gewinnen. Das Spielkonzept soll unter der Anwendung der Methode Crowdsourcing die Problematik der Validierung von Landmarken lösen.

Diplomarbeitsposter Sili Miroslav

Miroslav Sili

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit beschäftigt sich mit dem Themenbereich Ambient Assisted Living (AAL) und verfolgt das Ziel eine alternative und benutzerfreundliche Interaktionsmöglich-keit zwischen dem Bewohner einer AAL-Wohnumgebung und dem dahinter befindlichen System zu schaffen. Die Benutzerinteraktion mit solch einem System erfolgt bisher meis-tens über einen PC oder einen Touchscreens-PC, der an einer zentralen Stelle im Haus-halt aufgestellt wird. Diese Diplomarbeit erarbeitet dagegen eine Set-Top-Box-basierte Interaktionsmöglichkeit, die nicht an solch ein Zusatzgerät angewiesen ist, sondern direkt auf dem eigenen HDTV-fähigen TV-Gerät erfolgen kann. Sie ermöglicht sowohl die Steue-rung einer Smart-Home-Umgebung, als auch die Alarmierung des Benutzers bei außer-gewöhnlichen, kritischen Situationen. Ein Bestreben dieser Diplomarbeit liegt in der Erstel-lung einer generischen Lösung, die bei möglichst vielen AAL-Systemen eingesetzt werden kann. Für diesen Zweck wurden die typischen Charakteristika eines AAL-Systems anhand einiger ausgewählter, im Einsatz befindlicher Plattformen herausgearbeitet. Sie bilden die Grundlagen für das Design der Software die in dieser Diplomarbeit implementiert wurde. Eine genauere Untersuchung von aktuellen Verfahren und Standards auf dem Gebiet digi-tale Fernsehsignalübertragung und interaktives Fernsehen ermöglicht die Wahl einer Set-Top-Box, die einerseits zukunftsorientiert ist und anderseits europaweit einsetzt werden kann. Sowohl der Softwaredesignprozess als auch die konkrete Implementierung auf der ausgewählten Set-Top-Box wurden im Detail ausgearbeitet und beschrieben.

Diplomarbeitsposter Stix Harald

Harald Stix

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit beschäftigt sich mit der Entwicklung eines Prototyps, der Menschen, die an Spasmen leiden dabei unterstützen soll, ihr tägliches Leben besser bewältigen zu können. Die Diplomarbeit ist Bestandteil einer gemeinsamen Arbeit, deren gemeinsames Ziel der Prototyp ist. Dieser Teil beschreibt die Entwicklung der Software, welche auf einem Android Smart Phone ausgeführt wird, also die Software und Software-relevanten Hardware-Teile. Weiters wird auch die Verbindung zwischen Prototyp und Handy erklärt, sowie die Auswahl und Programmierung der Sensoren. Um einen Einblick in existierende Projekte zu erhalten, die sich mit tragbaren Sensoren und Smart Phone Applikationen im Gesundheitswesen beschäftigen wird eine umfangreiche Literaturerecherche durchgeführt. Die Anforderungen des Prototyps werden durch semistrukturierte Interviews ermittelt. Anschliessen wird das Gerät in einem iterativen Prozess entwickelt, wobei jeder Schritt den Prototyp weiter verbessert. Der Prototyp der gebaut wird, soll gut verwendbar sein, nicht mit dem täglichen Leben des Benutzers in Konflikt stehen, gleichzeitig aber so einfach wie möglich zu bedienen sein. Dies inkludiert auch ein auf die Bedürfnisse der späteren Benutzer zugeschnittenes Design der User Interfaces als auch ein Motivationssystem, das den Benutzer dazu motiviert das entwickelte Gerät zu verwenden. Der Prototyp wird unter Mithilfe eines Patienten entwickelt und von diesem auch evaluiert. Am Ende der Arbeit wird auch noch ein kurzer Ausblick in die Zukunft gewährt. Dieser Ausblick beschreibt zukünftige Anwendungsmöglichkeiten des Prototyps und wie er noch weiter verbessert werden kann.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Diplomarbeitsposter Greifeneder Michael

Michael Greifeneder

Masterstudium Software Engineering & Internet Computing
Abstract:

The purpose of this thesis was to investigate strategies for long-term accessibility of digital objects in the field of personal information management. More and more data is created on personal computers and mobile devices. With hardware and software getting outdated and replaced by new ones, users ask how to rescue their valuable data and preserve access to this information. To answer this question the used file formats were evaluated and recommendations made. Typical content types in personal information management like office documents and storage formats for emails, events, contact information, images, audio and video were analyzed for format requirements and sustainability factors. Migration is a viable approach for transferring digital materials to another platform or format, to be rendered or presented by new hardware or software. Based on the findings migration tools were selected which can migrate documents from not recommended to recommended formats. A modified PLANETS Testbed approach was followed to evaluate the migration tools. Pratical experiments were executed to rate the applicability of the tools based on a criteria catalog. Six of ten tools have been found to be suitable to integration. These tools provide migration path to recommended, more suitable formats and should be integrated within personal archiving solutions.

Diplomarbeitsposter Gritschenberger Christoph

Christoph Gritschenberger

Masterstudium Software Engineering & Internet Computing
Abstract:

Software Engineering ist zu einem integralen Bestandteil vieler Engineering-Prozesse in verschiedenen Domänen geworden. Der Begriff (Software+) Engineering wird verwendet, um software-intensive heterogene Engineering-Umgebung zu beschreiben. Der "Open Engineering Service Bus" (OpenEngSB) wurde entwickelt um Lösungen für die Herausforderung bei der Integration verschiedener Softwarewerkzeuge bereitzustellen. In verteilten Projekten werden dabei Daten und Infrastrukturen über das Internet verteilt und sind damit einem breiten Spektrum von Bedrohungen ausgesetzt. Ein gemeinsames Datenmodell, das allen Beteiligten erlaubt einander zu authentifizieren wird entwickelt, um jeder Partei die Entwicklung eigener Zugriffskontrollen zu ermöglichen. Die Auslagerung dieser an werkzeugspezifische Implementierungen macht es schwierig, Prozesse in anderen Projekten mit unterschiedlichen Werkzeugen wiederzuverwenden. Eine zusätzliche Kontrollschicht ist erforderlich, um diese von speziellen Implementierungen zu entkoppeln. Basierend auf einem realen Szenario, werden Anwendungsfälle unter Berücksichtigung von Sicherheitsaspekten festgelegt. Mögliche Bedrohungen werden identifiziert und Komponenten zur Beseitigung dieser werden erstellt. Eine prototypische Implementierung auf Basis des OpenEngSB Open Source Projekts zeigt, dass sich die Lösung zur Realisierung generischer Authentifizierung und komplexer Zugriffskontrollstrukturen eignet. Die Hauptkomponenten sind eine Authentifizierungs- und eine Autorisierungskomponente sowie deren Integration in verteilten Umgebungen. Die Integration ist meist nahtlos und hat kaum Auswirkungen auf die Nutzbarkeit für Entwickler und das Management, jedoch aber einen Einfluss auf die Leistung. Mit der zusätzlichen Zugriffskontrollschicht sind Werkzeuge austauschbar, während alle Interaktionen in Netzwerken gegen die häufigsten Bedrohungen gesichert sind.

Diplomarbeitsposter Hablich Michael

Michael Hablich

Masterstudium Business Informatics
Abstract:

Architectural Recovery (AR) is the method of reverse engineering of software architecture. The focus of this thesis is the semi-automated Architectural Recovery. This is a collection of methods aimed at assisting humans with their Architectural Recovery efforts. The intent of this thesis is the detection of current barriers in the field of semi-automated Architectural Recovery to measure its utilisability. To get a grasp of the current state several well know techniques were identified. An evaluation of implementations of these approaches allowed the identification of current barriers. QSOS was used as the evaluation framework. The limitations on the use of semi-automated Architectural Recovery comprise four basic categories. The organizational environments of the tools can have a major impact on its operational capability. For example a non-existing documentation of an implementation can be a major risk in using the application. Furthermore, the usability and the visual presentation of the collected data is a challenge for the tools. Code analysis is composed of two types: static and dynamic analysis. The latter offers a great challenge for the semi-automated Architectural Recovery. Finally, it can be said that many of the barriers identified are solvable, if the necessary resources are available.

Diplomarbeitsposter Hoffmann Stephan

Stephan Hoffmann

Masterstudium Medizinische Informatik
Abstract:

Diese Diplomarbeit beschreibt die Evaluierung einer interaktiven Informationsvisualisierung (SemTimeZoom) von quantitativen Merkmalen zeitbezogener Daten mit mehreren Variablen und der zugehörigen qualitativen Abstraktionen (Interpretationen). Diese Visualisierungstechnik verwendet verschiedene visuelle Repräsentationen für die Daten, abhängig vom vertikalen Platz der für einen einzelnen Parameter zur Verfügung steht (Semantic Zooming). Die quantitativen Daten und deren qualitativen Interpretationen werden gemeinsam in einer kombinierten Form dargestellt. Obwohl diese Visualisierungstechnik sehr vielversprechend wirkt, wurde sie bis jetzt noch nicht evaluiert. Um eine weit verbreitete Benützung zu erreichen, müssen neue Visualisierungstechniken belegbare Vorteile präsentieren. Um die Effektivität von SemTimeZoom einschätzen zu können, wurde eine Vergleichsstudie mit einer anderen Visualisierungstechnik durchgeführt. Die Vergleichstechnik verwendet statische visuelle Repräsentationen und zeigt die quantitativen Werte getrennt von den qualitativen Abstraktionen. Die Vergleichsstudie wurde mithilfe eines kontrollierten Experiments durchgeführt. Das Experiment zeigte dass die Testpersonen speziell für komplexere Aufgaben, die den Vergleich von den quantitativen Werten innerhalb bestimmter qualitativer Levels beinhalten, mit der SemTimeZoom Technik deutlich weniger Zeit benötigten als mit der Vergleichstechnik. Obwohl Wissenschafter die sich mit Informationsvisualisierung beschäftigen schon lange die Wichtigkeit von Evaluierungen ihrer Visualisierungstools erkannt haben, bleibt die Schwierigkeit der Durchführung solcher Studien ein wichtiges Thema. Um die zukünftige Durchführung von Evaluierungsstudien zu erleichtern wurde im Zuge der Arbeit eine wieder verwendbare und flexible Software-Bibliothek entwickelt die in zu evaluierende Software-Prototypen integriert werden kann.

Diplomarbeitsposter Hofmann Wolfgang

Wolfgang Hofmann

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren hat die Bedeutung von IT Diensten (Services) deutlich zugenommen, weshalb der Wert dieser Services maßgeblich an die Bedürfnisse des Business und an die Unternehmensziele gekoppelt ist und in Folge direkten Einfluss auf den Geschäftserfolg hat. IT Frameworks und Standards unterstützen IT Organisationen und Unternehmen diese Dienste einzuführen, kontinuierlich zu verbessern und den Betrieb sicherzustellen. Prozesse, Prinzipien, Methoden und Grundsätze werden im Zusammenhang mit den Geschäftsbedürfnissen eingefordert, allerdings sollte eine Service Strategie der Einführung neuer IT Services zu Grunde liegen. Die IT Infrastructure Library (ITIL®) hat sich mit Version 3 dem Thema der Service Strategie verstärkt gewidmet und einen eigenen Teil publiziert, in welchem die unterschiedlichen Aspekte , Prinzipien, Methoden und Prozesse behandelt und detailliert beschrieben werden. Diese Arbeit setzt sich mit dem Thema der Service Strategie auseinander und beleuchtet anhand eines realen Beispiels wie eine Service Strategie aussehen kann und wie diese definiert wurde. Ebenso werden die organisatorischen und technischen Erfolgsfaktoren beleuchtet, die sich im Rahmen der Definition der Service Strategie für das Unternehmen ergeben und welche Probleme sich herauskristallisierten. Den Abschluss der Arbeit bildet die Beschreibung einer technischen Lösung, die zeigt, wie der Betrieb von IT Services sichergestellt werden kann und die in der Service Strategie definierten Erfolgsfaktoren validiert werden können.

Diplomarbeitsposter Liu Ha Trieu Hue

Ha Trieu Hue Liu

Masterstudium Medizinische Informatik
Abstract:

Symptoms of the Attention Deficit Hyperactivity Disorder (ADHD), a very common and widespread mental health disease, are often recognizable at early age in childhood. Besides inattention, impulsivity and hyperactivity, patients diagnosed with ADHD also suffer from deficits in executive functions (EFs) in many cases. Unfortunately, ADHD interventions are often designed for adults and therefore restrictedly applicable to children. Motivated by the insufficient therapy possibilities, the computerized training program JATEF (Java Applet based Training of Executive Functions) which was developed within this master thesis, has its goal in helping elementary-school aged children by improving certain EFs. JATEF consists of several different tasks (templates existed in a pen and paper version for adults) which were jointly picked and adapted in cooperation with the Department for Child and Adolescent Psychiatry at the Medical University of Vienna. On the one hand, it was of great importance to maintain the basic idea behind each task throughout the adaption process, but on the other hand, the children’s acceptance of the design has to be ensured as well. This work has the following two main objectives: Firstly, modifying the tasks for the needs of children and secondly, exploring whether the modifications were sufficient for a usage in real child therapy. JATEF was developed in accordance to the principles of the software development model known as Evolutionary Prototyping. Thus, prototypes of the tasks enabled the possibility of getting user feedback early in the design phase. After completion of the final prototype, a user study with mental health professionals was conducted. The evaluation of this study revealed that the participants were pleased with the modern design and the universal applicability. Every task of JATEF proved to be easily understandable, simple to operate and, most importantly, suitable for children.

Diplomarbeitsposter Mayer Rudolf

Rudolf Mayer

Masterstudium Information & Knowledge Management
Abstract:

The prevalent approach in Music Information Retrieval is to analyse music on the symbolic or audio level – many tasks are predominantly tackled in the acoustic domain. With the exception of symbolic music retrieval and score-based systems, which form rather separate sub-disciplines on their own, most approaches to retrieve recordings of music by content rely on different features extracted from the audio signal. Music is subsequently retrieved by similarity matching, or classified into genre, instrumentation, artist or other categories. Yet, music is an inherently multi-modal type of data. Apart from purely instrumental pieces, the lyrics associated with the music are as essential to the reception and the message of a song as is the audio. Album covers are carefully designed by artists to convey a message that is consistent with the message sent by the music on the album as well as by the image of a band in general. Music videos, fan sites and other sources of information add to that in a usually coherent manner. This thesis contributes to the analysis of song lyrics, and explores how they can be utilised for Music Information Retrieval tasks, in addition and as a complement to audio-based approaches. We present several candidates for features sets capturing the content of the lyrics, and analyse their suitability in depth. We perform an evaluation on multiple test collections and musical genre categorisation tasks, and show that lyrics are a modality that can help to improve classification performance.

Diplomarbeitsposter Schmidt Martina

Martina Schmidt

Masterstudium Business Informatics
Abstract:

Testing is widespread in modern day software engineering practice and represented in almost every development process. However, especially with sequential development processes where testing is done only once after major development has been completed, it is common for only the most vital tests to be written because of time constraints or testability problems. Untested systems require unit tests to ensure that enhancements do not break existing functionality. For these systems to be maintained properly, tests that were previously dropped need to be introduced. Different testing strategies, tests created by humans and tool-supported test case generation, are promising approaches to accomplish this. To investigate, if it pays off to use tool-supported test case generation in addition to or even instead of manual testing, we compare these strategies regarding their effectiveness. Other goals include identifying differences in the defect types found. To explore defect detection capabilities, a controlled experiment was conducted. Java collections, with 35 seeded defects, were used as the system under test. Only class files and their Javadoc were supplied. 48 students manually implemented tests within 60 minutes. Randoop, a feedback-directed random test generator, was used to automatically generate unit tests. Results show, that the two strategies exhibit about the same defect detection effectiveness, but each brings distinct contributions to software quality. Randoop was more effective in finding algorithm and checking type defects and achieved higher coverage. The participants were able to test against the specification and the created tests were easy to understand. Generated tests are hard to reuse and require refactoring. The best result was achieved with a combination of the two strategies. The findings of this thesis can help project managers, software developers, software testers, quality managers and maintenance engineers choose the appropriate testing strategy.

Diplomarbeitsposter Schneider Thomas

Thomas Schneider

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Assignment of staff to work tasks is a complex problem that involves a large number of factors and requires a lot of expertise. Long term as well as short term requirements need to be met which demands flexible solutions. Software tools can aid planners in reaching optimal dispatching plans but currently available solutions provide only incomplete support. This thesis describes the design, prototypical implementation, and evaluation of a tool called A-Plan for semiautomated assignment planning. First, established procedures in a selected company were observed and investigated. During this phase, vulnerabilities of the current process and the software systems in use were identified. Applying a user-centered development process, a new tool has been designed and a prototype called A-Plan was implemented. Finally, the prototype has been evaluated by potential users and IT professionals. In A-Plan, the assignments of staff to customers are displayed visually and can be modified via direct manipulation. This makes required information quickly available to users. Also, a user friendly and efficient search method is implemented. A-Plan provides awareness and communication features for collaboration of multiple planners and simplifies data input. The semi-automated planning feature supports complex scheduling tasks in computing optimal routes for service technicians in a geographic area using the savings algorithm. A major contribution of this work is that it shows how the fields of information visualization, collaboration and optimization can be successfully combined for supporting human dispatchers in their complex resource scheduling tasks. The feedback of users in our evaluation was generally positive, especially compared to the system currently in use. The implemented prototype was considered to be more efficient and easier to use. This work also shows the benefits of early involvement of potential users in the development process.

Diplomarbeitsposter Strodl Stephan

Stephan Strodl

Masterstudium Business Informatics
Abstract:

Immer mehr Information ist nur noch elektronisch vorhanden. Ein Großteil davon wird schon elektronisch erzeugt und hat kein analoges Pendant mehr. Die Verfügbarkeit und spezielle die langfriste Verfügbarkeit dieser elektronischen Bestände wir für immer mehr Unternehmungen von größten Interesse. Digital Objekte können einen beträchtlichen Wert für das Unternehmen darstellen. Langzeitarchivierung beschäftigt sich mit der Erhaltung der dauerhaften Verfügbarkeit von digitaler Information. Ein Trend im Bereich der Langzeitarchive geht in Richtung Automatisierung von Aufgaben. Das Ziel sind Lösungen die einfach zu bedienen sind und wenig Hintergrundwissen benötigen. Zielpublikum für derartige Lösungen sind Klein- und Mittelbetrieben mit limitieren hausinternen Ressourcen und Expertise. Ein wichtiger Aspekt für die Langzeitarchivierung von digitalen Objekten sind die Kosten. Speziell für Langzeitarchive sind die Kosten für die nächsten Jahre aber auch die mittel und langfristige Kostenentwicklung von Interesse. Die Bewertung der Kostenfaktoren für ein Langzeitarchiv ist eine schwierige Aufgabe, da diese teilweise schwer zu identifizieren bzw. zu bemessen sind. In dieser Arbeit wurde ein Kostenmodell speziell für automatisierte Langzeitarchivsysteme entwickelt. Das Kostenmodel erlaubt es Unternehmen mit wenig Erfahrung und Expertise ihre Datenbestände die Kosten einen Langzeitarchivierungslösung zu berechnen. Das Model ist flexibel genug um unterschiedlichste Szenarien zu unterstützen. Es bietet aber auch detaillierte Formeln um mit messbaren Inputfaktoren eine genau Kostenplanung durchzuführen. Das Model erlaubt eine detaillierte Kostenberechnung für die nähere Zukunft und ermöglicht die mittlere und langfristige Kostenentwicklung abzuschätzen. Das Model ermöglicht die monetäre Bewertung von Arbeitszeit, Hardwarekosten und andere Kostenfaktoren einen Langzeitarchives.

Diplomarbeitsposter Wacholski Konrad

Konrad Wacholski

Masterstudium Business Informatics
Abstract:

Um die forensische Analyse von Social Network Informationen zu erleichtern, präsentiert diese Diplomarbeit eine neuartige, forensische Methode zur Analyse von speziellen Daten von Social Network Webseiten, welche gemeinsam mit der SBA Research Group entwickelt wurde. Während das SBA Team sich mit dem Sammeln bzw. Erfassen von Daten aus sozialen Netzwerken beschäftigt – am Fallbeispiel Facebook – befasst sich diese Diplomarbeit hauptsächlich mit der Analyse dieser gesammelten Daten. Zu diesem Zweck ist eine digitale Forensik-Prototyp-Applikation für Facebook entwickelt und evaluiert worden. Das Ziel dieser Diplomarbeit besteht darin, kriminellen Ermittlern die Möglichkeit zu geben, Daten aus einer traditionellen digitalen Spurensicherung mit den gesammelten forensischen Informationen aus sozialen Netzwerken zu vergleichen. Daher sind die Entwicklung, Implementierung und Evaluierung in Form von Real-Life Tests die wichtigsten Punkte dieses forensischen Projekts.

Diplomarbeitsposter Wasmayr Philipp

Philipp Wasmayr

Masterstudium Business Informatics
Abstract:

Die Ergebnisse dieser Diplomarbeit sind ein neues Prozessmodell zur Spezifikation, Implementierung und Überprüfung einer Service-orientierten Architektur sowie die Einführung eines Konzeptes für effizientes Monitoring dieser heterogenen Systemlandschaft. Des Weiteren wurden die Testprozesse aller gängigen Software-Modelle auf Eignung für die Überprüfung von Service-orientierten Architekturen analysiert und mit Hilfe einer zuvor definierten Metrik bewertet. Die Ergebnisse dieses Vergleichs werden ebenfalls in dieser Diplomarbeit präsentiert.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Antensteiner Doris

Doris Antensteiner

Masterstudium Medieninformatik
Abstract:

The aim of an interactive image segmentation is partitioning an image by dividing it into two areas, namely a foreground (object) and a background. To achieve this the user marks parts of the object and parts of the background. Based on this input information further conclusions about these areas in the image are drawn. In order to segment the image it is represented as a graph. Each pixel of the image is represented by a node in this graph and edges model the relations between the pixels. One of the headed problems is the definition of the pixel neighborhood. Earlier algorithms are using smaller 4-connected or 8-connected neighborhoods. Especially towards object boundaries with fine structures, problems arise. Higher neighborhoods can improve the segmentation results. However, the computational expenses for the graph cut rises by the number of edges in the graph. We present a new algorithm for which uses a higher connected graph for improving the segmentation performance. To reduce the computational expenses imposed by a higher connected graph, we approximated the dense graph with a sparse one via minimum spanning trees. Results show that our method outperforms algorithms that use lower connected graphs.

Diplomarbeitsposter Braun Georg

Georg Braun

Masterstudium Medieninformatik
Abstract:

Ziel einer Bildglättung ist die Reduktion von Bildrauschen unter Beibehaltung der Kantenschärfe. Traditionelle Glättungsfilter, wie beispielsweise der Gauß Filter, reduzieren Bildrauschen, aber auch Kantenschärfe und sind daher für diese Aufgabe nicht gut geeignet. Im ersten Teil dieser Diplomarbeit werden drei kantenerhaltende Glättungsfilter behandelt, welche sowohl Rauschanteile unterdrücken als auch Kanteninformation weitgehend erhalten. Weiterhin wird ausführlich darauf eingegangen, wie traditionelle und kantenerhaltende Glättungsfilter effizient implementiert werden können. Bis auf eine Ausnahme wird für alle behandelten Filter ein Algorithmus mit konstanter Laufzeit bezüglich der Kernelgröße präsentiert. In einem eigenen Kapitel werden Strategien zur parallelen Implementation der vorgestellten Glättungsfilter auf CUDA-fähigen Grafikkarten präsentiert. Der zweite Teil der Arbeit zeigt, dass der Anwendungsbereich kantenerhaltender Glättungsfilter keineswegs auf die Entfernung von Bildrauschen beschränkt ist. Es werden zwei interessante Applikationsszenarien vorgestellt, und es wird diskutiert, inwieweit die zuvor vorgestellten kantenerhaltenden Filter zur Lösung der jeweiligen Aufgabenstellung eingesetzt werden können. Als erstes wird das Szenario der interaktiven Bildsegmentierung behandelt. Hier gilt es, den Vordergrundbereich eines Bildes mit Hilfe minimaler Benutzereingaben zu extrahieren. Es wird gezeigt, dass Segmentierungsalgorithmen mit integrierter kantenerhaltender Filterung im Vergleich zu State-of-the-Art-Algorithmen (Grab-Cut) nicht nur qualitativ ähnliche Ergebnisse erzielen können, sondern auch deutlich weniger Rechenleistung beanspruchen. Das andere Anwendungsszenario beschäftigt sich mit der Nachbearbeitung von Tiefenkarten, die durch Stereo-Matching berechnet wurden. Es wird gezeigt, dass durch die Anwendung kantenerhaltender Filter die Qualität der Karten, vor allem in der Nähe von Tiefenunstetigkeiten, deutlich gesteigert werden kann.

Diplomarbeitsposter Czermak Clemens

Clemens Czermak

Masterstudium Medieninformatik
Abstract:

Die Diplomarbeit beschäftigt sich mit der Stereoanalyse zur Gewinnung von Tiefeninformation aus Bildern. Es werden Anwendungsgebiete und Grundlagen der Stereoanalyse beschrieben und häufig gemachte Annahmen, welche die Korrespondenzsuche erleichtern, diskutiert. Bei den Verfahren zur Lösung des Korrespondenzproblems werden lokale Methoden sowie globale Methoden erörtert. Neben der theoretischen Erläuterung von Verfahren ist das Ziel der Arbeit die Implementierung eines Stereoalgorithmus auf einer Graphikkarte, um mithilfe der starken Parallelisierungsfähigkeiten der Karte einen Geschwindigkeitsvorteil gegenüber einer CPU-Implementierung zu erreichen. Bei der theoretischen Aufbereitung werden vor allem jene Stereoverfahren berücksichtigt, welche eine Laufzeit besitzen, die für Echtzeitanwendungen geeignet ist und dennoch Resultate vergleichbar mit aufwendigeren Verfahren vorweisen. Zu diesen Methoden zählen bei den lokalen Ansätzen jene mit adaptiver Anpassung der Fenster bzw. der Gewichte an die Gegebenheiten der Bilder. Bei den globalen Verfahren wird der Ansatz der dynamischen Programmierung geschildert, da sich Verfahren mit dynamischer Programmierung effizient auf einer Graphikkarte implementieren lassen und gute Resultate liefern. Eigens erläutert wird jener auf dynamischer Programmierung basierende Stereoalgorithmus, welcher dann auf einer GPU implementiert wird. Im praktischen Teil werden Aufbau und Architektur von programmierbaren Graphikprozessoren beschrieben und das Vorgehen bei der realisierten GPU-Implementierung wird erläutert. Die erzielten Ergebnisse der GPU-Implementierung werden anschließend diskutiert sowie mit den Ergebnissen der CPU-Implementierung verglichen. Das implementierte Stereoverfahren läuft mit 16 Bildern pro Sekunde bei Bildern der Größe 384x288 und 16 Disparitätsstufen, was für viele Echtzeitanwendungen ausreichend ist.

Diplomarbeitsposter Eisele Patrizia

Patrizia Eisele

Masterstudium Medizinische Informatik
Abstract:

Es wurde ein Überblick über die wichtigsten Methoden zur Identifizierung von Interest-Points gegeben. Häufig eingesetzte Konzepte wurden im Detail erklärt. Gemeinsamkeiten und Unterschiede der Verfahren wurden herausgestellt. Zudem wurde ein Applikation entwickelt, welche gängige Interest-Point-Detektoren integriert und einen visuellen Vergleich der Ergebnisse dieser Detektoren ermöglicht. Eine dafür geeignete Auswahl an Bildern wurde für den Vergleich zur Verfügung gestellt. Für eine Vielzahl von Anwendungen im Bereich der Computer Vision ist es nötig, in einem ersten Schritt interessante Strukturen in Bildern zu identifizieren um die Durchführung eines robusten Bildabgleichs zu ermöglichen . Diese interessanten Strukturen werden als lokale Features bezeichnet und entsprechen zumeist Eckpunkten oder blob-ähnlichen Strukturen in Bildern. Die Position von lokalen Features in Bildern wird durch sogenannte Interest-Points oder auch Interest-Regions beschrieben. Verfahren zur Identifikation lokaler Features werden als Interest-Point-Detektoren bezeichnet. Verfahren, die auf Interest-Points basieren, verwenden lokale Bildinformation zur Detektion relevanter Features. Im Gegensatz zu vielen anderen Ansätzen sind sie in der Lage, gute Resultate beim Bildabgleich zu erzielen, auch wenn die Objekte in Bildern teilweise verdeckt sind. Zudem sind Features, die auf Interest-Points lokalisiert sind, robust gegenüber unterschiedlichen geometrischen und photometrischen Bildtransformationen und realisieren eine kompakte Repräsentation des Bildinhalts. Heute existiert eine große Anzahl verschiedener Verfahren zur Detektion von Interest-Points. Um den passenden Detektor für eine bestimmte Aufgabenstellung zu finden, ist es daher notwendig, sich mit den grundlegenden Konzepten und Methoden zur Interest-Point-Detektion zu befassen.

Diplomarbeitsposter Fischl Christian

Christian Fischl

Masterstudium Medieninformatik
Abstract:

In dieser Diplomarbeit wird Video- und Audiomaterial aufgrund automatischer Bewertung des Emotionsgehalts sprachlicher Äußerungen verfremdet. Zum einen dient diese Verfremdung der Anonymisierung der dargestellten Personen und zum anderen wird dabei eine hervorgehobene Darstellung der Emotionen erzielt. Häufig konzentriert sich die Emotionserkennung auf die Unterscheidung einiger weniger Basisemotionen wie Freude, Trauer, Wut, Angst etc. In dieser Arbeit werden die Emotionen in einem dreidimensionalen Ansatz im R^3-Raum kontinuierlich beschrieben, wobei der Raum durch die drei Emotionsprimitive Valenz, Arousal und Dominanz aufgespannt wird. Die Emotionserkennung erfolgt dabei in einem Mustererkennungsprozess, für den Support Vector Regression und ein adaptierter k-Nearest-Neighbor-Algorithmus zum Einsatz kommen. Für Training und Test des Maschinenlernverfahrens wird die "Vera am Mittag"-Datenbank aus dem HUMAINE-Projekt verwendet. Sie beinhaltet Video- und Audiomaterial, welches in einer Evaluierung durch 17 Personen emotional bewertet wurde. Insgesamt werden 69 prosodische und spektrale Merkmale wie beispielsweise die Tonhöhe, RMS-Energie, MFCC-Koeffizienten etc. aus der Tonspur extrahiert. Für jede Gefühlsdimension wird ein Ranking der Relevanz erstellt. Die ermittelten Emotionen werden anschließend für die Manipulation des Materials herangezogen. Für die visuelle Verfremdung werden dabei drei Verfahren implementiert: ein kantenbasierendes, ein symbolbasierendes und eines, um einen impressionistischen Effekt zu erhalten. Die Emotionen wirken dabei auf verschiedene Parameter der Videoeffektfilter ein. Die Tonspur wird durch eine Art Vocoder verzerrt und anonymisiert.

Diplomarbeitsposter Hasslacher Alexander

Alexander Hasslacher

Masterstudium Medieninformatik
Abstract:

Ziel von Stereo-Algorithmen ist es, korrespondierende Punkte in zwei, auf der horizontalen Ebene verschobenen Bildern zu finden. Dabei wird die Verschiebung von korrespondierenden Pixeln als Disparität bezeichnet. Die Disparitäten geben Rückschluss auf die Entfernung der Bildpunkte zum Kamerasensor, wodurch sich Tiefenkarten erstellen lassen. Obwohl die Verwendung von Farbbildern als Eingabe für Stereo-Algorithmen eine höhere Qualität der Resultate als bei Grauwertbildern erwarten lässt, wurde in vergangenen Arbeiten gezeigt, dass Farbbilder bei Verwendung von helligkeits-invarianten Stereo-Korrespondenzmaßen sogar einen negativen Einfluss auf die Resultate haben können. Jedoch wurden diese Experimente auf Bildern durchgeführt, welche unter ähnlichen Laborbedingungen und mit derselben Kamera aufgenommen wurden. Das Ziel dieser Diplomarbeit ist es die Einsichten vergangener Arbeiten auf einem neuen Datensatz und mit unterschiedlichen Kameras zu verifizieren. Dazu wurden in dieser Arbeit Stereobildpaare mit unterschiedlichen Kameras aufgenommen und Referenzlösungen in Form von Disparitäts-Karten unter Einsatz von strukturiertem Licht erzeugt. Anschließend wurden die aufgenommenen Stereobildpaare verwendet um Disparitäts-Karten mit einem etablierten Stereo-Algorithmus zu berechnen. Zur Berechnung der Disparitäts-Karten wurden verschiedene Farbräume sowie Korrespondenzmaße verwendet. Die berechneten Disparitäts-Karten wurden dann mit den Referenzlösungen verglichen und die daraus erhaltenen Fehlerraten ausgewertet. Die Auswertungen bestätigen die Einsichten vergangener Arbeiten: Zum einen hat Farbe in radiometrisch unverzerrten Bildregionen wenig positiven Einfluss auf die Resultate. Im Gegensatz dazu können radiometrisch insensitive Korrespondenzmaße auch in diesen Regionen das Resultat verbessern. Zum anderen wurde in dieser Arbeit bestätigt das radiometrisch insensitive Korrespondenzmaße auf Grauwertbildern bessere Ergebnisse als auf Farbbildern liefern.

Diplomarbeitsposter Pilz Ferdinand

Ferdinand Pilz

Masterstudium Visual Computing
Abstract:

In recent years, multi-touch technology has had its breakthrough in research as well as in consumer electronics. This development was mainly driven by multi-touch enabled devices entering the mass market. Compared to conventional single-pointer interaction using a mouse, multi- touch surfaces allow for much richer and more diverse ways of Human-Computer Interaction (HCI). Users can interact with an application in a direct and natural way using their fingers or whole hands to touch the surface, hence the term natural user interfaces (NUI). To support the development of applications for multi-touch devices a lot of different software frameworks have emerged to assist developers in the process. Although all of these frameworks provide a set of well-known and ready-to-use gestures, they lack flexibility concerning the definition and extensibility of gestures as well as reusability in different application scenarios. The goal of this work is to overcome those shortcomings and develop methods for the generalization of multi-touch interactions to allow a modular definition of gestures at a high level of abstraction. This enables to decouple the logic of the interaction relevant parts of an application completely from the application’s run-time logic and use interaction techniques in a platform and application independent manner. Therefore, different gestures can easily be interchanged and modified without having to change the application itself.

Diplomarbeitsposter Weissenböck Johannes

Johannes Weissenböck

Masterstudium Medizinische Informatik
Abstract:

This thesis presents the so called reactive Shape display, a tactile display for displaying moving and static two and a half-dimensional shapes, which allows the user to interact. The user interaction takes place by pressing the display pins. For this purpose, a concept is introduced and implemented which decouples the drive mechanically from the tactile element to allow a flexible design in terms of display resolution. The design and implementation generally aime at a technical simple and economical cost-effective solution. It is given an introduction to the concepts of touch, providing the theoretical foundations of touch and the determination of biophysical parameters in this context. Furthermore, improvement and expansion opportunities that resulted from the implementation process are cited.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Gniesser Paul

Paul Gniesser

Masterstudium Software Engineering & Internet Computing
Abstract:

The ATLAS Transformation Language (ATL) is a Language to describe rule-based mode-tomodel transformations. The more complex, different and interwoven the source and target model are, the more comprehensive the rules get. This results in detoriorated readability, maintainability and reusability and longer execution times of the transformations. At the moment transformations can only be modified by applying atomic operations. Combined operations have not yet been developed that would allow to improve transformations by restructuring. The context of this thesis is the development of restructurings for ATL, so called refactorings, on the basis of existing work. These enable to transform ATL-transformations in a way that non-functional requirements and software quality attributes are improved. A catalogue of refactorings was developed which separates into renaming, restructuring and optimizations for runtime speedup. There is a possibility to add domain-specific refactorings. At the beginning existing transformations were analyzed and common ’bad smells’ were derived by metrics and quality attributes like readability, maintainability and reusability. From this derivation the definition of the refactoring catalogue was created, which provides measures to eliminate bad smells. The catalogue is implemented using the ATL Refining Mode and is compared to an implementation in EMF Modeling Operations. The transformations of the ATLimplementation are metrically analyzed before and after each refactoring. Additionally the runtime of the transformations before and after the refactoring is timed and the number of executed bytecode statements is rated. The refactorings were evaluated regarding the application to other transformation languages (e.g. QVT-Relations).

Diplomarbeitsposter Lodhi Assad

Assad Lodhi

Masterstudium Software Engineering & Internet Computing
Abstract:

Current software development projects comprise the development of complex software systems under immense time pressure. In the past decade, model-driven software development (MDSD) has become mainstream to tackle these challenges. In MDSD, domain specific modelling languages (DSML) are becoming more and more important. These languages allow to concisely represent all the peculiarities of a given domain in a model. But being so specific, interoperability is needed with standardized modeling languages such as UML, because they offer a more common way of communication between different stakeholders. At the moment, interoperability can only be achieved by manually creating transformations between DSMLs and UML which is a challenging task. This thesis presents a tool named ProfileGen, which tackles this challenge by proposing a semi-automatic approach for generating such transformations needed for interoperability between DSMLs and UML. In particular, a mapping language is presented which allows to manually link DSML elements with UML elements on a high-level of abstraction. From such mappings, a generator framework automatically creates all artifacts needed for interoperability, including transformations from the DSMLs to UML and vice versa, as well as UML profiles for ensuring information loss free transformations .The approach is evaluated by a real-world case study, namely integrating WebML (a DSML for data-intensive Web applications) with UML.

Diplomarbeitsposter Munk Andreas

Andreas Munk

Masterstudium Business Informatics
Abstract:

Social networks on the Web have seen enormous growth over the past few years. Most networkers are present in a number of different networks, which leads to scattered social content. The evolving data schemas and the different ways to access social data are resulting in tedious and error-prone development and maintenance processes of social applications. In this master thesis, evolution, main characteristics and features of social networks are surveyed. Facebook, LinkedIn, Twitter and GooglePlus, are examined. Class diagrams of the data schemas, based on the APIs, give an overview of these platforms. Each social network has its individualities of accessing the data. A widespread data authorization system is oAuth, which is explained and implemented in a social adaptor for a project called TheHiddenU. Therefore information about the data schema is needed. Because of the incomplete documentation of the API, in this thesis a tool called Json2Ontology is developed for an automatic reverse engineering of the data schema offered by the social networks. In the first step the tool uses the response of the REST Web services for into sentences of a domain specific language, which represent social user profiles and enable the generation of Java classes for data access. Starting at one or more request URLs, the tool analyze the Json response and search for navigation possibilities, which are represented as relationships. The Json2Ontology tool has been evaluated by comparing the created class diagrams with the generated data schema. The result depends on the authorized user and the amount of personal data. In case of Facebook, a real world test user has been used to find the data produced by real social interactions. The Json2Ontology tool found 79% of the classes and 80% of the attributes. Even more important are the the newly found classes (namely 7) and attributes (namely 162). Different settings have been evaluated to find a well balanced configuration for the tool.

Diplomarbeitsposter Ungerböck Georg

Georg Ungerböck

Masterstudium Informatikmanagement
Abstract:

Der Einsatz von Enterprise Mashups erlaubt Anwendern ohne technische Kenntnisse aus vorhandenen Daten in unterschiedlichen Systemen ad hoc eine neue Anwendung zu erstellen. Die Integration heterogener Daten in eine neue Anwendung durch den Endanwender, stellt gerade im Einsatz von Unternehmen ein großes noch ungenutztes Potential dar. So arbeiten viele Unternehmen mit hoch integrierten ERP Systemen, die einen Großteil der Daten zur Steuerung der Prozesse enthalten. Allerdings sind nicht alle Informationen vollständig im ERP System enthalten bzw. können nicht alle Operationen über das ERP System ausgeführt werden. Es entsteht die Situation bei der Daten aus unterschiedlichen Systemen zusammengeführt und daraus Entscheidungen getroffen werden müssen. Im Rahmen der vorliegenden Arbeit werden die speziellen Anforderungen wie Datenqualität, die erhöhte Sicherheit bei unternehmerisch sensiblen Daten und die Einbindung von integrierten ERP Systemen als auch von Legacy Applikationen in Enterprise Mashups untersucht. Unter Legacy Applikationen werden alle Arten von unternehmerischen Anwendungen verstanden, die unter Umständen technisch nicht mehr auf dem neuesten Stand sind, allerdings aus verschiedenen Gründen weiterhin im Unternehmen eingesetzt werden. Mit dem exemplarisch umgesetzten Mashup wird die schnelle und unkomplizierte Kombination der Daten unterschiedlicher Anwendungen in den Vordergrund gestellt. Der Prototyp stellt einen Leitfaden für Anwender und Unternehmen dar, um die oft komplizierte technische und organisatorische Umsetzung neuer Applikationen zu vereinfachen. Mit Mashups wird Mitarbeiten ein Werkzeug bereit gestellt, um bei Bedarf selbst ohne Programmierkenntnisse und ohne die Unterstützung der IT Abteilung die notwendige Anwendung oder Auswertung erstellen zu können.

Diplomarbeitsposter Zehetmayer Christian

Christian Zehetmayer

Masterstudium Business Informatics
Abstract:

Electronic Data Interchange (EDI) wird seit Jahrzehnten für den automatisierten business-to-business (B2B) Handel verwendet. Dennoch ist EDI noch immer eine der brisantesten Herausforderungen der heutigen Geschäftswelt. Diese Diplomarbeit untersucht reale Phänomene von EDI in österreichischen Organisationen. Die Forschungsfrage konzentriert sich auf die Vielfältigkeit und Durchdringung von EDI. Dazu gehören Gründe für und gegen den Einsatz von EDI, der Anteil von EDI an Geschäftstransaktionen und die Adaptierung zwischen der internen Ablauforganisation, dem Enterprise Resource Planning (ERP)-System und EDI. Die Ergebnisse dieser Diplomarbeit basieren auf statistischen Analysen einer empirischen Umfrage unter 227 österreichischen Unternehmen. Davon verwendeten 103 Unternehmen EDI, was einem Anteil von 45,4% entspricht. 75,2% der Unternehmen, die über ein ERP-System verfügten, verwendeten auch EDI. Die Ergebnisse der Umfrage zeigten, dass die Größe und das ERP-System eines Unternehmens einen Einfluss auf die Verbreitung von EDI hatten. Darüber hinaus wurde festgestellt, dass die Verwendung eines trennzeichen-basierten EDI-Standards oder eines eXtensible Markup Language (XML)-basierten EDI-Standards durch die geographische Größe des Absatzmarkts, das ERP-System, die Anzahl an EDI-Partnern, die Anzahl an gesendeten EDI-Nachrichten und durch wettbewerbspolitische Gründe beeinflusst wurde. Des Weiteren ergab die Umfrage, dass Nicht-Anwender von EDI, eher strategische als technische oder finanzielle Bedenken gegenüber EDI hatten. EDI wurde hauptsächlich wegen Kosten- und Zeitersparnis sowie zur Stärkung der Wettbewerbsposition eingesetzt. Die automatische Weiterleitung von eingehenden EDI-Nachrichten zu den entsprechenden Geschäftsbereichen wurde von 90% der Unternehmen umgesetzt. Allerdings berichtete jedes zweite Unternehmen von notwendigen manuellen Eingriffen aufgrund von Problemen bei der EDI-Verarbeitung.

Arbeitsbereich (vor 2018) E-Commerce

Diplomarbeitsposter Abebe Haimanot

Haimanot Abebe

Masterstudium Business Informatics
Abstract:

Ein Lebenslauf verzeichnet die wichtigsten individuellen Daten einer Person. Er wird hauptsächlich in tabellarischer Form dargestellt, kann aber im Einzelfall auch in Textform Anwendung finden. Eine Erleichterung und Hilfestellung um beispielsweise bei einer Bewerbung einen optimalen Eindruck zu vermitteln und sich möglichst umfassend zu präsentieren stellen sogenannte Lebenslaufgenerierungssysteme dar, welche eine automatisierte Erfassung von Kompetenzen ermöglichen. Die vorliegende Arbeit beschäftigt sich daher mit verschiedenen, bereits existierenden Lebenslaufgenerierungssystemen und deren Funktionen. Kernthema ist dabei die auf dem so erworbenen Wissen basierende Entwicklung eines eigenständigen Lebenslaufgenerierungssystems. Dieses soll in weiterer Folge ermöglichen Kompetenzprofile im PDF, WORD und HR-XML Format zu Exportieren. Insgesamt soll so ein einfach bedienbares System entstehen, welches dazu verwendet werden kann Daten in einem Kompetenzprofilen abzuspeichern und daraus einen Lebenslauf zu generieren, um sich beispielsweise für einen Job, eine Diplomarbeit oder ein Praktikum zu bewerben.

Diplomarbeitsposter Aigner Alexander

Alexander Aigner

Masterstudium Business Informatics
Abstract:

Die Vision des Semantischen Webs und dessen Konzepten repräsentiert die Zukunft des Webs. Application Programming Interfaces (APIs), welche die Integration semantischen Technologien vereinfachen, repräsentieren einen wichtigen Teil zur Realisierung dieser Vision. Das Resource Description Framework (RDF) ist eine von diesen semantischen Technologien, welche es ermöglicht Ressourcen aus dem Web zu beschreiben und da- durch für Maschinen interpretierbar zu machen. Während RDF APIs bereits vermehrt für Programmiersprachen wie Java oder dotNet existieren, besteht immer noch ein Mangel an effizienten und zufriedenstellenden Schnittstellen für PHP. Wenn man bedenkt, dass PHP die viert häufigst verwendete Programmiersprache im Bereich Webentwicklung ist, ist es notwendig, auch für diese Programmiersprache brauchbare Schnittstellen zur Verfügung zu stellen. Deswegen haben wir uns entschieden, eine leicht zu verwendende RDF API für PHP zu entwickeln. Diese API nennt sich Easy RDF for PHP (ERP) API. Durch evaluieren und vergleichen von bereits existierenden und weitverbreiteten RDF APIs, basierend auf verschiedenen Programmiersprachen, haben wir es geschafft, einige Stärken und Schwächen zu definieren, welche während der Entwicklung unserer API beachtet wurden. Dies ermöglichte uns wertvolle Konzepte in die ERP API einzubringen, welche zuvor noch nicht in PHP verwendet wurden. Weiters zeigt der Vergleich, dass die meisten APIs keine effizienten und zufriedenstellenden Schnittstellen für RDF zur Verfügung stellen. Eine abschließende Gegenüberstellung illustriert, dass die ERP API eine hohe Bewertung in den Kategorien Effektivität, Effizienz und Zufriedenheit erreicht und deshalb einige Verbesserungsmöglichkeiten für die Entwicklung anderer APIs präsentiert.

Diplomarbeitsposter Camacho Pastorizo Lizeth

Lizeth Camacho Pastorizo

Masterstudium Business Informatics
Abstract:

In dieser Arbeit wurden Aspekte der Tourismusökonomie auf der Servicetechnologie-Ebene analysiert und beschrieben, wobei der Schwerpunkt auf ethnologischen und ökologischen Werten der indigenen Völker in Südamerika lag. Es wurde als Service-System betrachtet, um eine konzeptuelle und praktische Interpretation für den Aufbau eines effizienten Suchsystems zu erlangen.

Diplomarbeitsposter Dietrich Stephan

Stephan Dietrich

Masterstudium Business Informatics
Abstract:

Im Allgemeinen befasst sich der Begriff "Knowledge-based Configuration" (zu Deutsch: Wissensbasierte Konfiguration) mit der Aufgabe, etwas (Neues) zu bauen, durch die Auswahl anderer, bereits vorhandener Komponenten unter der Berücksichtigung bestimmter Einschränkungen / Bedingungen. Beispiele hierfür sind Auto- und Computer-Konfiguratoren. Die vorliegende Diplomarbeit greift das Thema der steigenden Anforderungen in Sachen Produktindividualisierung der B2B-Kunden in der Fertigungsindustrie auf und behandelt die zentrale Frage, wie flexible Produktkonfiguration in Bestellprozessen mit Kunden, Systeme und Plattformen integriert und/oder kombiniert werden kann. Zur Beurteilung der mögliche Lösungsstrategien werden, eine Analyse der bestehenden Ansätze von Unternehmen der Fertigungsindustrie in der Form von Fallstudien vorgestellt, allgemeine Anforderungen an Produktkonfiguration und -konfiguratoren abgeleitet, und mögliche allgemeine Produktkonfigurations- und Bestellinteraktionstrategien vorgeschlagen. Zur Anwendung und Überprüfung der vorgeschlagenen allgemeinen Strategien in einem konkreten Anwendungsfall wird das kooperierende Unternehmen Mettler Toledo analysiert und eine Lösung empfohlen. Das Ergebnis dieser Diplomarbeit ist ein Framework von Anforderungen und Interaktionsstrategien in Sachen Produktkonfiguration und Bestellung, und das Auswertungsbeispiel in einem bestimmten Anwendungsfall. Die Auswertung zeigte, dass die Konfiguration und Bestellung über online Interaktions- und Vertriebskanäle in einem großen Nutzen für den Kunden und das anbietende Unternehmen resultiert. Darüber hinaus werden in dieser Arbeit bestimmte Probleme im Bezug auf die Darstellung und den Transport von konfigurierten Produkten in und über verschiedene Medien dargestellt. Die vorgestellten neuen E-Commerce-Technologien wie z.B. E-Procurement-Plattformen und deren Konfigurationslösungen unterstreichen zudem den künftigen Einsatz jener in der elektronischen Beschaffung im B2B Sektor.

Diplomarbeitsposter Gahlay Amit

Amit Gahlay

Masterstudium Business Informatics
Abstract:

Social Tagging-Dienste wie Flickr und Del.icio.us gehören, neben Diensten wie Facebook und YouTube, zu den Stars der Web 2.0-Ära. Sie ermöglichen ihren Benutzern, diverse Res- sourcen, mit frei gewählten Schlagwörtern zu versehen. Das Social Tagging bietet eine sinnvolle, intuitive und qualitativ hochwertige Verschlagwortung, welche zu einer guten inhaltliche Beschreibung der Informationsobjekte und einer Verbesserung von Suchergebnissen führt, selbst wenn einzelne Tags unpassend oder sogar als kritisch einzustufen sind. Aufgrund der großen Anzahl an Nutzern entsteht ein mächtiges Kontrollsystem, welches falsche Informationen bzw. Missbrauch des Dienstes nahezu unmöglich macht. Bei „Flickr: The Commons“ ist vor allem die Assoziationsfähigkeit zwischen Tagger und dem Foto ausschlaggebend d.h. der User weist dem Foto nur dann ein Schlagwort hinzu wenn er sich in irgendeiner Form mit dem gezeigten Objekt identifiziert. Genau diese Assoziationsbeziehung zwischen dem Tagger und dem abgebildeten Objekt, wird im Rahmen dieser Arbeit näher untersucht werden. Im ersten Teil setzt sich die Arbeit mit den theoretischen Grundlagen von Social Tagging auseinander. Im zweiten praxisbezogenen Teil der Arbeit wird anhand von „Flickr: The Commons“ die Assoziationsbeziehung zwischen Tagger und dem Objekt näher untersucht. Hier kommen neben bereits vorhandenen Tools, auch zwei eigenes entwickelte Anwendungen FlickrMaps und ClusterTags zum Einsatz. Bei FlickrMaps handelt es sich um ein Echtzeit-Mashup, welches Flickr und GoogleMaps vereint. Dahingegen arbeitet ClusterTags mit einer vorher erstellten Datenbasis mit deren Hilfe Tags nach geographischen Merkmalen gruppiert werden. Abschließend folgt eine Schlussfolgerung und ein Ausblick auf eine mögliche Verwendung der Ergebnisse.

Diplomarbeitsposter Gawrilowicz Christian

Christian Gawrilowicz

Masterstudium Information & Knowledge Management
Abstract:

Diese Arbeit beschäftigt sich mit den Anforderungen für die Einführung eines Kompetenzmanagement-Systems an der TU Wien und die Einbettung in das vorhandene Verwaltungssystem "TISS". Im ersten Teil der Arbeit werden Begriffe definiert, Vorgehensmodelle und Probleme im Kompetenzmanagement ausgeführt, sowie die Unterschiede zwischen Kompetenzmanagement-Systemen in Unternehmen und an Universitäten herausgearbeitet. Der zweite Teil beschreibt den Prozess der Erhebung der Anforderungen für ein solches System. Die erhobenen Anforderungen werden Anwendungsfällen zugeordnet, mögliche sprachliche Defekte werden behoben und die Anforderungen an System-Komponenten und das Datenbankmodell werden ermittelt. Im letzten Teil der Arbeit werden die ermittelten Anforderungen mittels Szenarios auf Richtigkeit und Vollständigkeit überprüft.

Diplomarbeitsposter Gegendorfer Andreas

Andreas Gegendorfer

Masterstudium Informatikmanagement
Abstract:

TechScreen ist ein System, das momentan an der Fakultät für Informatik der TU Wien entworfen und entwickelt wird und das den Wissensaustausch zwischen verschiedenen Benutzergruppen im technischen Umfeld ermöglichen bzw. verbessern soll. In dieser Arbeit wird die Benutzergruppe der Masterstudenten an der Fakultät für Informatik herausgegriffen und für diese Gruppe wird beispielhaft untersucht wie neben dem Wissensaustausch auch ganze Wissensprozesse durch TechScreen unterstützt werden können und wie diese Unterstützung technisch realisiert werden kann. Die Basis der Untersuchung bildet der Prozess der Realisierung einer Diplomarbeit. Eine Analyse der momentanen Situation an der Fakultät bildet die Grundlage für die Entwicklung eines neuen Konzeptes, in welches die Unterstützung des Prozesses „Diplomarbeit schreiben“ durch die Onlineplattform TechScreen als integraler Bestandteil mit einfließt. Die Hauptbestandteile des neu entwickelten Konzeptes sind einerseits die Unterstützung der administrativen Abläufe, die während der Durchführung des Prozesses anfallen, und andererseits die automatisierte Veröffentlichung und die Einordnung von (während des Prozesses erstellten) Dokumenten in ein System, das es den Nutzern der Plattform ermöglicht diese einfach aufzufinden und zu benützen. Die Umsetzung des Konzepts erfolgt schließlich durch die Ausarbeitung und Implementierung eines, auf dem CMS Drupal basierenden, Prototyps. Drupal bietet sich aus mehreren Gründen als Basis des Systems an. Zwei davon sind, dass auch TechScreen mithilfe von Drupal entwickelt wird und dass es sehr viele bereits existierende Erweiterungen des Systems aus der Benutzergemeinde gibt, die die Entwicklungszeit erheblich verkürzen können. Zentrale Ergebnisse der Arbeit sind die Erstellung eines sinnvollen und relativ leicht zu adaptierenden Konzeptes und die Entwicklung einer ansprechenden und funktionsfähigen prototypischen Implementierung der gewünschten Erweiterung der Plattform TechScreen.

Diplomarbeitsposter Honeder Stefan

Stefan Honeder

Masterstudium Business Informatics
Abstract:

Web Science is the name of an initiative started in 2006. The initiative originated from the observation that understanding the Web is crucial for its further success and therefore a new research discipline, Web Science, has to be established with the interdisciplinarity of the Web as main research focus. Consequently a part of this science, deals with the current shift from Web 2.0 user generated content, to the Semantic Web. This next generation Web, is based on semantically rich data. Such Linked Data forms the basis for further development of the Web and gives the opportunity for a bunch of new applications. We chose to analyze bibliography data in the field of computer science. Beside there are different sources it offers the opportunity to answer questions like, ’Is there a cultural influence on research in computer science?’. For building the datasource to answer questions like above, we started with the downloadable data from DBLP, interlinked this information with data from Microsoft Academic Search and connected it further with ACM Computing Classification System (CCS) information. Prior the analyses and visualization the data was processed by basic text indexing, tokenizing, stop word removal and stemming. For analyzing the collected information we used visualizations based on this data, regression models as well as clustering and classification methods. We analyzed the influence of authors and their co-authors to the quality of an institution. It turned out that scientists with a scientific career between 5 and 10 years provide the most valuable contribution to the quality of an institution. A cultural influence on research was observed which shows a tendency of more Mathematical research in Eastern Europe, parts of Asia as well as Middle America. Also a relationship between the location of a conference and the scientists joining this conference is noticed for non-top conferences.

Diplomarbeitsposter Koutensky Michael

Michael Koutensky

Masterstudium Business Informatics
Abstract:

Das explorARTorium (http://explorartorium.info) beherbergt eine umfangreiche Sammlung digitalisierter Bilder von Kunstwerken, die von Benutzern annotiert (getagged) werden können, wodurch eine Folksonomy geschaffen wird. Es liegt im Interesse des Betreibers, die Faszination der Benutzer an der multimedialen Plattform und am Taggen von Kunstwerken zu erhalten, weil dies dazu beiträgt, die Folksonomy zu verbessern und Verbindungen zwischen den Kunstwerken herzustellen. Leider ist dieses Ziel nur schwer zu erreichen, denn das Taggen stellt eine zeitaufwändige Aufgabe dar, und ohne Anreiz oder Hilfestellung wird die Motivation des Benutzers dies zu tun im Laufe der Zeit abnehmen. Eine umfassende Analyse der Folksonomy des explorARToriums untersucht das Verhältnis zwischen Benutzern und ihren Tags. Erstens wird bestätigt, dass das Taggingverhalten der Benutzer in Relation zu ihrem Bewertungsverhalten zu setzen ist. Zweitens bringt eine qualitative und lexikalische Analyse des Vokabulars der Benutzer große Unterschiede zwischen den Themen zutage. Drittens wird die Rolle der Benutzer hinsichtlich Aktivität und Lerneffekten untersucht und aufgezeigt, dass das Vokabular der Benutzer im Laufe der Zeit spezieller wird. Letztlich wird die mit der Zeit abnehmende Motivation der Benutzer Kunstwerke zu taggen bestätigt. Um den Benutzern von Kunstsammlungen einen Anreiz zum Taggen der Bilder zu bieten, wird ein Framework für systemgenerierte Vorschläge von passenden Tags entwickelt. Dieses Framework erleichtert es dem Benutzer, die Kunstwerke zu beschreiben. Die Implementierung des Frameworks bedient sich Business Intelligence Techniken, um interessante Verbindungen zwischen Variablen in der Datengrundlage zu entdecken und damit Entscheidungskriterien für das Recommender System zur Verfügung zu stellen. Abschließend werden die Qualität und die Genauigkeit des implementierten Tag Recommendation Framework einer Evaluation unterzogen.

Diplomarbeitsposter Kroich Maria

Maria Kroich

Masterstudium Business Informatics
Abstract:

The tourism industry was one of the first sectors utilizing ICT. A multitude of systems, standards and services developed. The use and the offered possibilities of the web enable continuous progress in the eTourism sector. eTourism defines the application of e-commerce solutions in the field of tourism. Since there is a great variety of stakeholders, the networking between them is highly important. To ensure interoperability between those business actors data standards are required. The multitude of different online providers in the tourism industry also leads to a multitude of different goals, policies, standards, etc. Especially standards are highly relevant, when it comes to integration of content from other providers into own applications. The survey considers and investigates point of interest data as content. Until now no data standard regarding points of interest has enforced, even though some formats are prevalent. The integration of external content can become complex, due to the missing data standard. Each data source has to be handled separately, what implies higher efforts in implementing networking processes. The missing standard is complicating the reusability, exchange and comparison of data in the tourism sector. A restraint of innovation may be the consequence. The approach of the survey is based on the investigation of different online providers in the tourism industry in relation to point of interest data. Thereby, the available platforms are analyzed in regard to their APIs, data availability, trust and security issues, as well as their different policy guidelines for using their data as a third party service. The analytical results are summarized in a comparative matrix. Based on the analysis of online providers and the evaluation of current dominant formats a new data standard for points of interest is developed - PXF (Point of Interest eX-change Format). The applicability of the standard is verified via the prototypical implementation.

Diplomarbeitsposter Lesslhumer Sebastian

Sebastian Lesslhumer

Masterstudium Business Informatics
Abstract:

Die kontinuierliche Verbreitung von Breitbandanschlüssen, sowie die damit einhergehende verstärkte Internetnutzung haben in den letzten Jahren zu einem starken Anstieg des sogenannten “user generated content” geführt. Aufgrund der Popularität, sowie der bereits erwähnten Verfügbarkeit, ist das Internet zu einer der wichtigsten Informationsquellen geworden. Dies wirkt sich auch sehr stark auf den menschlichen Entscheidungsprozess aus. Eine Entscheidung wird sehr stark von den Eindrücken und Erfahrungen anderer beeinflusst. Besonders bei Kaufentscheidungen verlässt sich der Mensch auf die Erfahrungen anderer Benutzer. Mittlerweile kann man im Internet zu fast jedem Produkt eine Vielzahl von Kundenrezessionen finden. Jedoch sind die Suche und das Lesen dieser Rezessionen eine oft zeitintensive und anstrengende Aufgabe. Um diese Prozess zu vereinfachen und zu beschleunigen verwendet man sogenannte Sentiment Analysis Systeme. Sentiment Analysis, das in der Literatur auch als Opinion Mining bezeichnet wird, beschreibt den rechnergestützte Prozess um in Textdokumenten subjektive Eindrücke und Meinungen zu analysieren. Das Ziel ist es zu bestimmen, ob ein Dokument eine positive beziehungsweise eine negative Stimmung ausdrücken. In dieser Master’s Thesis wird ein neuartiger Ansatz für “Feature-based Sentiment Analysis” vorgestellt. Das postulierte System wurde für die Analyse von Produktrezensionen in der deutschen Sprache konzipiert. Es unterstützt die automatische Identifikation von Meinungen sowie von Produktmerkmalen. Das System wurde als hybrider Ansatz realisiert und verwendet “machine learning” Algorithmen sowie ein umfassendes Regelwerk, um die Orientierung (positiv, neutral, negativ) der Produktmerkmale zu bestimmen. Aufgrund der unterstützten Lernfähigkeit des Systems kann dieses auch auf andere Domänen (z.B. Filmrezensionen) erfolgreich angewendet werden.

Diplomarbeitsposter Nguyen Hoang Son

Hoang Son Nguyen

Masterstudium Business Informatics
Abstract:

Information Technology has progressed rapidly in recent decades. With the ever increasing popularity of the internet, providing ease of access to almost limitless information and tools, the general publics now face the problem of filtering relevant information from the vastness of the internet. Search engines, the likes of Google, Yahoo and Microsoft have, to some extent, made the internet a more accessible and manageable place for the end users. Now with the introduction of semantic technology it will bring about a revolution in information retrieval for people. Information retrieval is very important in the job market: the need for instant and relevant access to data matching the person with the available job. Here, semantic technology take into acCounter a user’s personal profile in searching for jobs and, as a result, the returned results are much more meaningful and pertinent. This thesis will take a look at the current job market and evaluate the current search tools available to determine how job searches can be improved using semantic technology and ontology technology. In addition, a prototype comprising a scale-down data model of the job market and semantic technology based tools will be built to test the effectiveness of the technology and evaluate cost-benefit of building a full model for the real world.

Diplomarbeitsposter Pollak David Dominik

David Dominik Pollak

Masterstudium Business Informatics
Abstract:

Diese Masterarbeit beschäftigt sich mit den verschiedensten Ansätzen der Modellierung von Geschäftsmodellen. Aufgrund der unterschiedlichen Ursprünge, Auffassungen und Zugänge zu der Definition eines Geschäftsmodells, ergibt sich die Problematik einer heterogenen Begriffserklärung, die sich auch in den Modellierungsmethoden widerspiegeln. Dies führt dazu, dass diese Methoden in sich erklärbar und anwendbar sind, aber untereinander keinen Vergleich hinsichtlich ihrer Anwendbarkeit und ihrem Nutzen erlauben. Ein Schwerpunkt dieser Arbeit ist es, verschiedene Definitionen und Modellierungsmethoden zu diskutieren um einen Überblick über deren Anwendbarkeit zu erhalten. Der Kern der Arbeit ist der Versuch, ausgewählte, heterogene Methoden zu analysieren und mögliche Vergleichsparameter zu erstellen. Diese Attribute werden auf Basis einer intensiven Literaturrecherche und der praktischen Anwendung jedes einzelnen ausgesuchten Ansatzes erstellt. Diese dienen als Grundlage für eine gemeinsame Evaluierung. Dazu wird eine dreistufige Skala eingeführt, deren einzelne Bewertungslevels diskutiert und angewendet werden. Jeder Ansatz wird an einer Beispielfirma angewendet und erläutert. Ergebnisse und Erfahrungen, die bei dieser Vorgangsweise gemacht wurden, bilden die Grundlage für die abschließende Evaluierung. Das Ziel dieser Arbeit ist es, die eingeführten Attribute mit deren Definitionen bei jeder ausgewählten Modellierungsmethode anzuwenden und dadurch einen Vergleich zu ermöglichen. Die Evaluierung stellt einen ganzheitlichen Vergleich dar, der viele verschiedene Aspekte enthält und aufzeigt. Dieses Ergebnis soll in weiterer Folge als eine Basis für die zukünftige Verwendung der betrachteten Modellierungsmethoden dienen. Vor allem im Bereich der ganzheitlichen Darstellung von Geschäftsmodellen bis hin zur Ableitung von Softwareartefakten soll das Ergebnis der Evaluierung einen Mehrwert für weitere Aktivitäten liefern.

Diplomarbeitsposter Schlegel Michael

Michael Schlegel

Masterstudium Medieninformatik
Abstract:

Der Bereich der Kompetenzmessung und -erfassung wurde schon in vielen Studien abgehandelt. Programmierkompetenzen wurden allerdings nur sehr selten betrachtet, obwohl das Gebiet der Programmierung und die entsprechenden Kompetenzen heute wichtiger denn je sind. Gerade in Softwareprojekten ist eine Vielzahl an Programmierkompetenzen gefragt, da die Softwareentwicklung eine hochkomplexe Angelegenheit ist und viele verschiedene Felder der Programmierung eingesetzt werden müssen. Generell ist ein Reichtum an Programmierkompetenzen auf jeden Fall von Vorteil, vor allem aber am Arbeitsmarkt bei der Vermittlung von Arbeitsplätzen oder als Jobsuchender selbst. Auch im universitären Rahmen gibt es für viele Lehrveranstaltungen bestimmte Bedingungen. Diese Arbeit beschäftigt sich mit der Analyse, Messung, Erfassung und Auswertung von Programmierkompetenzen. Zunächst wird der Begriff der Handlungskompetenz im Rahmen der Programmierung betrachtet. Anhand von aktuellen Studienplänen diverser Universitäten und Vorschlägen von Informatikvereinigungen werden danach die Kompetenzen eines Programmierers analysiert und herausgearbeitet. Dabei wird vor allem auf Programmieranfänger Rücksicht genommen und nur entsprechende Kompetenzen in den Katalog aufgenommen. Die gesammelten und gefilterten Kompetenzen werden in weiterer Folge definiert. Dies geschieht durch eine Gruppierung und Unterteilung der einzelnen Kompetenzen. Nachdem die Kompetenzen definiert sind, folgt die Betrachtung der Kompetenzmessung. Dies geschieht zuerst im allgemeinen Rahmen und wird dann speziell für Programmierkompetenzen umgesetzt. Dabei wird ein Assessment-Test entwickelt, der sowohl eine Überprüfung der Fachkompetenzen als auch eine Selbst- und eine Fremdeinschätzungskomponente enthält. Anschließend wird eine Evaluierung des propagierten Tests durchgeführt. Die Auswertung der Testbefragung führt schlussendlich noch zu Vorschlägen, wie der entwickelte Assessment-Test weiter verbessert werden kann.

Diplomarbeitsposter Zweng Johannes

Johannes Zweng

Masterstudium Software Engineering & Internet Computing
Abstract:

This master thesis deals with the topic of knowledge transfer in the field of art history by means of a game. Special attention was given to mobile systems which are meanwhile numerously available in form of several smartphone platforms (Android, iPhone, etc.). The first part of the work focuses on the definition and the history of playful learning. It is shown that this form of knowledge transfer has a long tradition and provides much more opportunities than simply having fun. Nowadays the term Serious Games concludes all types of games which provide additional value of any form besides entertainment, be it in form of learning games, or educational games but also critical games that intend to encourage a different way of looking at things. Games offer the advantage that their intrinsic motivational elements allow them to reach new audiences which otherwise maybe never could have been reached. Especially when dealing with topics of art history it is difficult to delight new target groups and motivate them for learning tasks. Based on this background in the course of this work the mobile game ARTournament was created as prototype with the objective of transferring knowledge in different fields of art history. The game enters specifically the area of Casual Games which describes the growing domain of games being played in short bursts in between times. The game was published in form of an application for Android smartphones and after a public test run the usage patterns have been analysed. In the final part of the work it is explained how the game was accepted and which learning success could be observed. Based on these experiences finally some suggestions for future improvements are made and a short outlook on the further development of Serious Games is given.

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Halmetschlager Thomas

Thomas Halmetschlager

Masterstudium Informatikmanagement
Abstract:

This thesis is a guide for the simulation of neural networks, as they occur in various creatures. For the simulation the software package Brian is used. It is a package that is available for nearly all operating systems. The guide is written for two different target audiences. First, for researchers with little or no experience in software development. The second target audience are people with a lot of computer science experience but with a lack of biologically or mathematically knowledge. While Chapter „Simulation“ offers a guide for self-studying, this thesis also presents a concept how this knowledge can be taught to the two target audiences. The example that is used for the simulation is first explained in a very detailed manner. Both, the mathematical an the biological, backgrounds are covered. The example is a model of the human locomotion generator. The biological procedures are simulated step by step to support a better understanding of the topic. After a reader has worked through this guide he will be qualified to continue working with the simulation package Brian on its own behalf.

Diplomarbeitsposter Neubacher Manfred

Manfred Neubacher

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

This thesis describes simulation-based optimization, where an optimizer is coupled with a simulator. The work presented here was performed in the field of the plastic processing industry and was part of a FFG (Austrian Research Promotion Agency) funded project within the program line “Factory of Tomorrow”. The development of the practical part of this work was done in a co-operation between the Technical University of Vienna and the Profactor GmbH located in Steyr, Austria. Based on the process and data analyses, a simulation model was built using the simulation library SiRO. As optimization tool the HeuristicLab framework for heuristic and evolutionary algorithms was used. The optimization generates complex priority rules by using an offspring selection genetic algorithm. These complex priority rules are applied situationally for all decision points at each simulation replication. The simulation delivers indices of the operating data from each replication to a rating model, where these indices are transferred into a common unit and then merged into a fitness value. The formulation of the rating model represents the company objectives (objective function). To construct a rating model, a rating framework was developed. After having performed the simulation and rating, the fitness value was delivered to the optimization. By comparing the different fitness values of different priority rules, it is possible to infer the quality of the generated rules. The best complex priority rule is obtained and based on this, a Gantt chart is provided to illustrate the obtained work schedules. A very interesting result of this study showed that the felt stress level of workers correlates with the backlog of work.

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Niederl Daniel

Daniel Niederl

Masterstudium Business Informatics
Abstract:

Ökologie ist seit geraumer Zeit nicht nur mehr Belastung für das Unternehmen, sondern trägt zum Erfolg bei, indem sie hilft, Rohstoffe und Energie, genauso wie Abfall, einzusparen. Der Zielkonflikt der Unternehmen, Gewinne auf der einen, unerwünschte ökologische Auswirkungen auf der anderen Seite, soll dadurch verringert werden. Diese Arbeit untersucht, wie sehr Ökoeffizienz und Innovation zusammenhängen. Dabei wird auf vorhandenes Datenmaterial einer Umfrage unter österreichischen Industrieunternehmen, durchgeführt vom Austrian Institute of Technology, zurückgegriffen. Es zeigt sich, dass öko- bzw. energieeffizient produzierende Unternehmen mehr und intensiver innovative Technik in ihrer Produktion nutzen. Viele der ökoeffizienten Produktionsmethoden sind selbst neu und inovativ. Es lässt sich also eher zwischen Unternehmen mit moderner Produktion und solchen mit älteren Produktionsmethoden unterscheiden, als zwischen innovativen und ökoeffizienten Produzenten. Die Untersuchung zeigt auch, dass die Forschungsquote in Bezug auf den Umsatz im Grunde konstant bleibt. Das bedeutet, dass die Forschungsausgaben mit dem Umsatz steigen. Die Höhe der Forschungsausgaben hat auch Auswirkungen auf die Umsatzsteigerungen. Unternehmen, die mehr in Forschung investierten, konnten von 2006 auf 2008 höhere Umsatzsteigerungen erzielen. Dies trifft insbesondere auf Unternehmen aus der Elektrobranche zu. Ökoeffiziente Produktion scheint keine Auswirkungen auf die Rendite zu haben. Dieses Ergebnis wurde so erwartet. Gleichzeitig kann man aber auch festhalten, dass moderne, ökoeffiziente Produktion (die möglicherweise teurer in der Einführung ist), keine negativen Auswirkungen auf die Rendite hat. Ökologie in den Unternehmen ist und bleibt also, in verschiedenen Ausprägungen und unter verschiedenen Namen, relevant für die Politik und damit für die Gesellschaft.

Diplomarbeitsposter Spitzwieser Manfred

Manfred Spitzwieser

Masterstudium Business Informatics
Abstract:

Seit Einführung des ‚European Union Emissions Trading System‘ ist der Emissionshandel als umweltpolitisches Instrument einer breiten Öffentlichkeit bekannt geworden. In dieser Arbeit wird der Emissionshandel gegenüber anderer umweltpolitischer Instrumente abgegrenzt und seine Wirkungsweise analysiert. Hier wird speziell auf die Rahmenbedingungen eingegangen, welche vorherrschen müssen damit sich durch den Emissionshandel eine effiziente Lösung einstellen kann. Des Weiteren wird das EU-ETS als praktisches Beispiel herangezogen um die Umsetzung eines solchen Systems mit der Theorie zu vergleichen. Es wird speziell auf die Probleme, die bei Einführung eines Emissionshandelssystems auftreten können, eingegangen und analysiert welche Parameter Einfluss auf die Wirkungsweise des Systems haben. Dies wird im letzten Teil der Arbeit mit Hilfe der agentenbasierten Programmiersprache NetLogo für ein vereinfachtes Emissionshandelssystem untersucht. Anhand dieser Simulation kann man beobachten wie das System auf verschiedenste Einstellungsparameter reagiert.

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Auer Gerald

Gerald Auer

Masterstudium Informatikmanagement
Abstract:

Mit der vorliegenden Magisterarbeit wird das Magisterstudium Informatikmanagement abgeschlossen. Im Fokus dieser Arbeit steht ein Unterrichtsentwurf, der grundlegende Themen für ein leichteres Verständnis und einfachen Umgang betreffend eBooks bei Schülerinnen und Schülern im Alter von 10 bis 14 Jahren initiieren soll. Der Einsatz von elektronischen Lehr- und Lernressourcen im Unterricht verlangt, wie auch bei herkömmlichen Unterrichtsmaterialien, eine Katalogisierung derselben, um effizient und schnell die richtige Ressource für das jeweilige Unterrichtsfach und die jeweilige Schulstufe auszumachen. Diese Magisterarbeit gibt eine Planungs- und Empfehlungsgrundlage für den Aufbau einer digitalen Schulbibliothek, die als zentrales Ergebnis die Aufarbeitung folgender Fragestellungen aufweist: Wie können in der Fülle von elektronischen Dokumenten zuverlässig unterrichtsspezifische Lehr- und Lernmaterialien ausgemacht werden? Wie können sie effizient von Lehrpersonen, Lernenden und allen anderen, die sich für sie interessieren, gefunden werden? Und wie gelangen diese Lehrmittel zu den Lernenden? Die Magisterarbeit gibt weiters Empfehlungen, die als zentrales Ergebnis der verschiedenen Ausarbeitungen angesehen werden und beantwortet unter anderem Fragen zum Kommunikationskanal Social Network, zum Peer-Ansatz und zur Auswahl eines geeigneten Lesegeräts für das in der Magisterarbeit beschriebene Projekt „eBookHeroes“.

(vor 2018) Institut für Energietechnik und Thermodynamik

Diplomarbeitsposter Halanek Rainer

Rainer Halanek

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Aufgrund der langen Lebensdauer von Wasserkraftanlagen ist die Revitalisierung ihrer Komponenten ein wichtiges Instrument zur Laufzeitverlängerung. Dazu ist es notwendig, den technischen Zustand der einzelnen Kraftwerkskomponenten zu bestimmen und die Wartungskosten der Neuanschaffung gegenüberzustellen, um so eine wirtschaftliche Entscheidung treffen zu können. Auf universitärer Seite gibt es Zustandsbewertungsverfahren die aber nur einem kleinen Kreis von Benutzern zugänglich sind. Die Forschungsfrage, die sich dabei stellt, lautet: "Wie ist es möglich, bestehende Zustandsbewertungsschemata für Wasserkraftwerke Experten einfach zur Verfügung zu stellen, und dabei gleichzeitig den Eingabedatenrückfluss in einem selbstlernenden System zu gewährleisten?". Um diese Fragen zu beantworten, wurde zunächst eine Literatursuche durchgeführt, um die vorhandenen Bewertungsschemata zu erfassen. Eine nachfolgende Analyse brachte die Erkenntnis, welche Schemata umgesetzt werden und wie man bereits zukünftige Erweiterungen vorbereiten kann. Durch einen Vergleich von bestehenden Lösungen wurden Anforderungen abgeleitet. Es wurde ein webbasiertes Computerprogramm erstellt, welches basierend auf bereits durchgeführten von Wasserkraftanlagen, die Eingabe und Analyse der Daten maßgeblich vereinfacht. Benutzer können Daten eingeben und erhalten einen Überblick über den technischen Zustand der angegebenen Wasserkraftanlage. Auf Basis des Bewertungsschemas wird mit Hilfe von Kostenfunktionen der optimale Revitalisierungszeitpunkt errechnet und dem Benutzer präsentiert. Ergebnisse werden in üblichen Exportformaten wie PDF und Excel Tabellen zur Verfügung gestellt. Zusätzlich ist das System so flexibel, um für die vorhandene Komponentenstruktur neue und speziell abgestimmte Bewertungsschemata einzubinden. Es wurde auch die Möglichkeit der Datenrückführung geschaffen. So können die vom Benutzer überschriebenen Kostenfunktionen in eine Modellverbesserung einfließen.

(vor 2018) Institut für Konstruktionswissenschaften und Technische Logistik

Diplomarbeitsposter Fürst Daniela

Daniela Fürst

Masterstudium Medizinische Informatik
Abstract:

Ziel dieser Arbeit ist die Entwicklung einer Prozesskette zur Automatisierung eines auf den Patienten bezogenen Sofortimplantats für den Einzelzahnersatz. Dieses individualisierte Zirkoniumimplantat steht klar in Konkurrenz zu herkömmlichen Titanimplantaten. Allerdings ist die derzeitige Fertigung des Sofortimplantats aufgrund der manuellen Bearbeitung sehr aufwendig, daher soll die Fertigung dieses Implantats automatisiert werden. Zuerst ist es erforderlich den zuvor extrahierten Zahn, der als Vorlage für die Erzeugung des individualisierten Zirkoniumoxid-Sofortimplantats dient mittels 3D-Scanner zu erfassen, wobei hier die Genauigkeit des Scanners eine entscheidende Rolle spielt. Weiters werden per CAD-Software auf dem Implantat songenannte Makroretentionen aufgebracht und der Kronenstumpf angepasst. Anschließend wird das CAD-File (vorzugsweise als STL-Datei) an eine CNC-Fräsmaschine geschickt, mit dem das Zirkoniumoxid-Implantat dann hergestellt wird und folglich implantiert werden kann. Ein Überblick über die am Markt befindlichen 3D-Scanner, CAD-Software und Fräsmaschinen zeigt die vielseitigen Möglichkeiten diese Prozesskette zu automatisieren. Als Ergebnis dieser Arbeit werden die einzelnen Produkte der Prozesskette bewertet und ausgewählt. Schlussendlich folgt die Kostenschätzung für die Umsetzung dieser automatisierten Prozesskette.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Abmayer Michael

Michael Abmayer

Masterstudium Wirtschaftsingenieurwesen Informatik