EPILOG Sommersemester 2008

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Puffitsch Wolfgang

Wolfgang Puffitsch

Masterstudium Technische Informatik
Abstract:

Der picoJava-II Prozessor ist ein von Sun Microsystems entwickelter Java-Prozessor und daher ein beliebtes Referenzdesign für andere Java-Prozessoren. Während viele neue Designs jedoch in FPGAs laufen, wurde der picoJava-II Prozessor für ASICs entwickelt - da keine Realisierung in einem FPGA bekannt ist, ist die Aussagekraft von direkten Vergleichen begrenzt. Da darüberhinaus auch keine Ergebnisse bezüglich der Performance von ASIC-Implementierungen bekannt sind, konnten sich Vergleiche auf diesem Gebiet nur auf Abschätzungen stützen. Das Ziel dieser Diplomarbeit ist die Implementierung des picoJava-II Prozessors in einem FPGA und die Schaffung der notwendigen Umgebung für die Durchführung von Benchmarks. In dieser Arbeit werden überblicksmäßig verschiedene Java-Prozessoren präsentiert; die Architektur von picoJava-II wird detailliert dargestellt. Das Design der für die Realisierung notwendigen Hardware-Module wird beschrieben, wie auch die verschiedenen Software-Komponenten. picoJava-II wird mit anderen Java Prozessoren bezüglich Resourcenverbrauch und Taktfrequenz verglichen. Weiters werden die Ergebnisse dieser Benchmarks dafür verwendet, die Performance des Prozessors zu bewerten.

Diplomarbeitsposter Weirich Bernhard

Bernhard Weirich

Masterstudium Technische Informatik
Abstract:

Der Fortschritt der Chipfertigungstechnik ermöglicht es, ein voll funktionsfähiges System auf einem einzelnen Chip unterzubringen. Vorteilhaft dabei ist die sehr effiziente Kommunikation der Komponenten untereinander. Es besteht jedoch die Gefahr, dass die mitunter sehr verschiedenen Komponenten, sofern sie nicht entsprechend voneinander abgegrenzt sind, sich gegenseitig beeinträchtigen. Dadurch kann selbst eine Applikation mit niedriger Priorität die Funktion einer sicherheitskritischen Echtzeitanwendung stören. Um das zu vermeiden, benötigt man deterministische und vor unbeabsichtigten Eingriffen geschützte Schnittstellen. Die TT-SoC Architektur, die auf einem zeitgesteuerten On-Chip Netz aufbaut, wurde für diese Zwecke entworfen. Zugriffe auf das On-Chip Netz werden vom sogenannten Trusted Interface Subsystem (TISS) überwacht, wodurch eine korrekte Funktionsweise gewährleistet werden kann. Das Ziel dieser Arbeit ist der Entwurf und die Implementierung einer Infrastruktur zur Ressourcenverwaltung für die TT-SoC Architektur. Ressourcenverwaltung ist für Systeme wichtig, in denen nur wenig Ressourcen zur Verfügung stehen. Im besonderen in batteriebetriebenen Geräten muss auf eine geringe Leistungsaufnahme geachtet werden. Dynamische Ressourcenverwaltung erlaubt effiziente Nutzung der Ressourcen, da diese nur bei Bedarf angefordert werden und nach Gebrauch wieder für andere Anwendungen nutzbar sind. In dieser Arbeit wird ein Lösungsansatz zur Ressourcenverwaltung vorgestellt. Weiters werden die dafür notwendigen Komponenten, die gegenseitigen Schnittstellen und die verwendeten Algorithmen erläutert. Es wird dabei darauf geachtet, dass ``Encapsulation'' (Abkapselung), eine wichtige Eigenschaft der TT-SoC Architektur, nicht beeinträchtigt wird. Dies wird dadurch erreicht, indem das System in vertrauenswürdige und nicht vertrauenswürdige Teile unterteilt wird, wobei der Zugriff auf Komponenten im vertrauenswürdigen Bereich überwacht wird.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Kolbitsch Clemens

Clemens Kolbitsch

Masterstudium Software Engineering & Internet Computing
Abstract:

Mondrian Memory Protection / Intel x86 Memory Protection / Stack Protection / Heap Protection / Race Condition Detection

Diplomarbeitsposter Müller Rainer

Rainer Müller

Masterstudium Technische Informatik
Abstract:

Semantic Web Techniken haben sich bereits in vielen Anwendungsbereichen als eine sehr effiziente Methode der Informationsspeicherung erwiesen. Das Ziel ist eine automatisierte Verarbeitung, ohne menschliches Zutun. Weiters bietet eine semantische Datenstrukturierung hohe Flexibilität auf Grund des hohen Vernetzungsgrades. Wurde eine solche "Wissens-Datenbank" (Ontologie) erstellt, so kann diese in unterschiedlichen Bereichen genutzt werden. Zum Beispiel kann eine Ontologie, die als Datenquelle für einen Web-Shop dient, gleichzeitig genutzt werden, um eine autonome Kommunikation zwischen Feldbusgeräten zu etablieren. Durch die zunehmende Software-Unterstützung ist es möglich, Ontologien zu entwickeln, ohne detailiertes Wissen über die zugrundeliegenden Techniken zu haben. Daten Visualisierungsprogramme sind dabei eine nützliche und hilfreiche Methode, um den Überblick über große Datenbestände zu behalten. Die vorliegende Diplomarbeit gibt einen Einblick in die sogenannte Semantic Web Vision, grundlegende Ontologie Bestandteile und allgemeine Design Richtlinen. Anschließend wird RDF, RDFS und OWL im Detail vorgestellt. Danach werden verschiedene Ansätze der Implementierung von Ontologien in Feldbusgeräten diskutiert und abschließend die Integration einer Ontologie in ein bestehendes Engineering Tool gezeigt.

Diplomarbeitsposter Pöltner Paul

Paul Pöltner

Masterstudium Software Engineering & Internet Computing
Abstract:

DBE / SOA / VMI

Diplomarbeitsposter Tat Ahmet

Ahmet Tat

Diplomstudium Informatik
Abstract:

Softwareentwicklung besteht aus einer Abfolge von mehreren Prozessen, welche Auswirkungen auf die Qualität, Zeit und Kosten von Software haben. Die Leistungsfähigkeit eines Software-Unternehmens wird daher an der erfolgreichen Entwicklung, Bereitstellung und Wartung von qualitativ hochwertiger Software gemessen. Alle Entwicklungsprozesse, vom Projektanfang bis zur Freigabe, müssen in allen Projektphasen hinreichend definiert und kontrolliert werden. Daher braucht erfolgreiche Softwareentwicklung zum einen klar definierte Entwicklungsprozesse und zum anderen ein effizient organisiertes Unternehmen. Die diversen Vorgehensmodelle der Softwareentwicklung zeichnen sich durch unterschiedliche Entwicklungsprozesse aus. Extreme Programming ist dabei eines der bekanntesten agilen Softwareentwicklungs-Modelle. Andererseits gibt es Reifegradmodelle wie das Capability Maturity Model Integration (CMMI), welche angewandt werden, um die Reife von Prozessen in einer Organisation zu messen und zu verbessern. Die Organisationen setzen sich CMMI Anforderungen und versuchen durch Verbesserung ihrer Prozesse einen Wettbewerbsvorteil zu gewinnen. In der vorliegenden Arbeit werden die CMMI Prozesse und die Grundlagen von Extreme Programming vorgestellt und in der Folge für die unterschiedlichen CMMI Anforderungen Lösungen aus dem Bereich des Extremem Programming gesucht. Es wird gezeigt, dass Extreme Programming viele Anforderungen aus CMMI abdeckt und durchaus brauchbare Praktiken für die Anwendung von CMMI bietet.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Brenner Bernd

Bernd Brenner

Masterstudium Business Informatics
Abstract:

Das Infinica Projekt hat als Ziel die Erstellung eines dokumentenorientierten Formular-managment Systems und besteht aus verschiedenen Komponenten, wie z.B. einem Dokumenten Designer, einem webbasierten Client, einer Administrationsapplikation oder einer Workflow Engine. Die Infinica Workflow Engine ermöglicht die Verarbeitung an BPEL 2.0 angelehnter Prozesse, bietet jedoch weder Möglichkeiten, Prozesszustände zu persistieren, noch menschliche Interaktion zu erlauben. Der Fokus dieser Arbeit liegt in der Integration menschlicher Interaktionsmuster in das Infinica Projekt. Dabei werden in der Infinica Engine Persistenz von Prozessen sowie menschliche Interaktionsmög-lichkeiten auf Basis der BPEL4People- und WS-Human-Task-Spezifikation realisiert. Es werden hierzu Konzepte wie Nomination, 4-Augen-Prinzip, Escalation und Notifications integriert. Weiters wird ein webbasierter Prototyp für Prozess-Monitoring entwickelt. Letztendlich werden die Ergebnisse der Diplomarbeit mit ähnlichen Arbeiten bzw. existierenden Systemen verglichen.

Diplomarbeitsposter Daubner Marian

Marian Daubner

Masterstudium Software Engineering & Internet Computing
Abstract:

Datenbanksysteme bekamen in den letzten Jahren ein entscheidendes Teil der Datenverwaltung. Daten sind bewahrt in raffinierten organisierten Strukturen mit komplexen Beziehungen um die Performanz und Effektivität von Datamining zu steigern. Anderseits erfordert diese Einrichtung explizit gebaute Applikationen um die Daten zu verwalten, und damit verursacht ein Mangel an Interoperabilität mit anderen Systemen bzw. Applikationen. Wir betrachten und lösen dieses Problem mit einem Java-basierendem user-space Filesystem. Diese Arbeit schildert den Entwurf und die Implementierung eines Filesystem entwickelt für ein bestimmtes Datenbanksystem –Braintribe Content Service Platform (BTCSP).

Diplomarbeitsposter Fede Daniel

Daniel Fede

Masterstudium Software Engineering & Internet Computing
Abstract:

Verteilte Architekturen und Semantic Web sind zwei große Schlagworte der heutigen Informationstechnologie. Das Peoplet Talent Scout Relationship System baut auf einer Peer-to-Peer Architektur auf, über welche Vakanzen zu den potenziellen Kandidaten übertragen werden. Der semantische Abgleich bildet einen zentralen Teil von Peoplet, da er entscheidet, ob Kandidaten eine Karrierechance überhaupt empfangen und bewertet, wie gut sie sich dafür eignen würden. Da ein Computer nicht die mögliche gleiche Bedeutung zweier unterschiedlicher Wörter erkennt, wird in dieser Arbeit ein Ansatz vorgestellt, wie man durch Hinzufügen einer Ontologie, den automatisierten Abgleich verbessern kann. Semantische informationen werden in einer zentralenWissensbasis gesammelt, welche durch die Betreiber von Peoplet verwaltet wird. Die Datenbank wird über einWeb Service angesprochen. Allen Karrierechancen wird Information aus dieser Wissensbasis beigefügt bevor sie mit den Daten der Kandidaten abgeglichen werden. Die Übereinstimmungsrate des automatischen Abgleichs wird nicht mehr nur von der exakten Eingabe der Benutzer abhängen, sondern von der Qualität der Wissensbasis.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Klocker Christoph

Christoph Klocker

Masterstudium Informatikmanagement
Abstract:

In den letzten Jahren entwickelte sich ein neuer Trend in der Webapplikationsentwicklung, die so genannten Mashups. Diese Applikationen sind Hybride, die Informationen von unterschiedlichen Quellen zusammenführen und dadurch neue Applikationen mit einem zusätzlichen Mehrwert kreieren. Die Masterarbeit zeigt einen allgemeinen Überblick der verschiedenen Mashuparten auf, führt in die wichtigsten zu Grunde liegenden Technologien ein und stellt einige Programme und Platformen für das Erstellen von Mashups vor. Die Fallstudie fmMusic, ein Musik-Mashup, gibt einen Einblick in die verschiedenen Konzepte, wie Web scraping, Data mashing und Frontendentwicklung, auf welchen Mashups aufbauen.

Diplomarbeitsposter Pollak Bernhard

Bernhard Pollak

Diplomstudium Informatik
Abstract:

Data Extraction / Web Data Mining / Document Analysis / Visual Webpage Analysis / Segmentation / Record Detection / Wrapper / Generic Web Wrapping

Diplomarbeitsposter Savenkov Vadim

Vadim Savenkov

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Datenaustausch, Datentransfer, Kern ,Kernberechnung, Relationalen Datenbanksystemen

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Krennwallner Thomas

Thomas Krennwallner

Masterstudium Computational Intelligence
Abstract:

Answer Set Programming, Conjunctive Queries, Description Logics, Disjunctive Datalog, Hybrid Knowledge Base, Nonmonotonic Reasoning, Ontology, Rule Languages

Diplomarbeitsposter Pührer Jörg

Jörg Pührer

Masterstudium Computational Intelligence
Abstract:

Antwortmengenprogrammierung / Debugging / Fehlersuche / Logische Programmierung / Meta Programmierung / Deklarative Programmierung / Wissensrepräsentation

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Gültekin Emrullah

Emrullah Gültekin

Masterstudium Software Engineering & Internet Computing
Abstract:

In den letzten Jahren sind Technologien wie Java RMI und .NET Remoting populär geworden. Durch diese Technologien haben Programmierer die Möglichkeit, große verteilte Applikationen zu entwickeln, ohne Details berücksichtigen zu müssen. So hat der Programmierer mehr Zeit, seine Applikationen zu verbessern. Diese Technologien haben ähnliche Konzepte bzw. ähnliche Ziele. Beide Technologien geben uns die Möglichkeit, Remote-Objekte zu verwenden, als ob sie lokal wären. Es wird versucht zu bestimmen, inwieweit diese Technologien miteinander übereinstimmen, ob es bedeutende Unterschiede zwischen RMI und Remoting gibt, welche Technologie sich wofür besser eignet und welche für Programmierer einfach verwendbar ist.

Diplomarbeitsposter Kraus Klemens

Klemens Kraus

Masterstudium Software Engineering & Internet Computing
Abstract:

API / Design / XVSM / extensible virtual shared memory / Java / language binding

Diplomarbeitsposter Lafite Michael

Michael Lafite

Masterstudium Software Engineering & Internet Computing
Abstract:

SEDA, Staged Event-Driven Architecture, Monitoring, Mule, JCyclone, Sandstorm

Diplomarbeitsposter Lechner Lukas

Lukas Lechner

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Masterarbeit präsentiert eine Methode zur Koordinierung von verteilte Webanwendungen mit XVSM (eXtensible Virtual Shared Memory), eine Middleware basierend auf dem Prinzip von verteilten "Data Spaces". Der Einsatz von XVSM bringt verteilten Anwendungen diverse Vorteile von einer Verringerung der Komplexität der Koordinierung bishin zu erhöhter Performance. Das Ziel dieser Arbeit ist es, die Vorteile von XVSM für verteilte Anwendungen mit den Vorteilen von Webanwendungen gegenüber herkömmlichen Desktopanwendungen zu vereinen. Darüber hinaus werden Einschränkungen hinsichtlich der Kommunikationsmöglichkeiten von aktuellen Webanwendungen durch den Einsatz von Bayeux als Transportmechanismus vermieden. Die Kommunikation zwischen den Webanwendungen und XVSM wird durch ein neu entwickeltes Protokoll namens XVSMP/Bayeux geregelt. Weiters wird eine Webserverkomponente und eine JavaScript Bibliothek, welche das Protokoll implementieren, erstellt. Die Webserverkomponente ermöglicht Webanwendungen den Zugang zum XVSM. Die JavaScript Bibliothek bietet eine einfache Programmierschnittstelle um die Entwicklung von verteilten Webanwendungen zu beschleunigen. Um eine Operation auf XVSM auszuführen, genügt es die entsprechende Methode der Programmierschnittstelle aufzurufen. Die JavaScript Bibliothek macht das Protokoll und den Nachrichtenaustausch mit XVSM transparent für den Entwickler der Webanwendung. Der Nachrichtenaustausch des Protokolls erfolgt über den neunen Transportmechanismus Bayeux. Bayeux wurde entwickelt, um die momentanen Einschränkungen, welchen Webapplikationen aufgrund des HTTP Protokolls unterliegen, zu umgehen. Diese Arbeit inkludiert zwei Beispielapplikationen welche die entwickelten Techniken demonstrieren.

Diplomarbeitsposter Putsche Christian

Christian Putsche

Diplomstudium Informatik
Abstract:

In den letzten Jahren ist vor allem im Bereich der öffentlichen Verwaltung und Behörden die Nachfrage nach Open Source Lösungen gestiegen. Dies stellt an die in diesem Umfeld tätigen IT-Unternehmen die Anforderung entweder neue plattformunabhängige Produkte zu erstellen, oder aber bereits Bestehendes zu migrieren. Diese Diplomarbeit befasst sich mit der Migration eines bestehenden Systems zur Generierung von Software-Applikationen. Die generierten Datenbank-Applikationen holen sich ihre Daten aus einer SQL Datenbank, sind in Visual Studio geschrieben und laufen unter einem Microsoft Betriebssystem. Die Herausforderung an den Migrationsprozess besteht darin, diese "Monokultur" aufeinander bestens abgestimmter Komponenten in ein offenes System zu übertragen. Ausgehend von einer Analyse der vorhandenen Techniken im Bereich Software-Migration und Reengineering wird versucht, den Generator dahingehend anzupassen, dass er in Aussehen, Verhalten und Funktionalität äquivalente Programme generiert, die mit Hilfe der Sprache Java unter dem Betriebssystem Linux einsetzbar sind. Die Vorgehensweise und die dabei auftretenden Probleme und Unzulänglichkeiten werden dokumentiert und bewertet.

Diplomarbeitsposter Wittmann Michael

Michael Wittmann

Masterstudium Software Engineering & Internet Computing
Abstract:

XVSM; Tutorial; Application Scenarios; SEDA; Staged event driven architecture; Load balancing; Space based computing; SBC

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Bradley Jeremy Moss

Jeremy Moss Bradley

Masterstudium Medizinische Informatik
Abstract:

Auch wenn Fuzzy-Logik und Supervaluationismus beides Mechanismen sind, die zur Behandlung von Konzepten der Vagheit geschaffen wurden, werden sie generell nicht als kompatibel angesehen. Sie repräsentieren zwei stark unterschiedliche Vorgangsweisen bei der Analyse logischer Strukturen bei der Argumentation mit vagen Begriffen und Propositionen. Fuzzy-Logik wurde als technisches Werkzeug entwickelt, Supervaluationismus als Theorie der Vagheit. Der eine Ansatz versucht die pragmatischen Bedürfnisse technischer Anwendungen zu befriedigen, der Zweite versucht eine mathematisch und philosophisch standfeste Analyse vager Fakten zu erreichen. Diese Diplomarbeit versucht zu ermitteln, ob diese unterschiedlichen Ausrichtungen die Ansätze tatsächlich inkompatibel machen. Es wird analysiert, ob die Fuzzy-Logik tatsächlich die Ablehnung verdient, die sie in philosophischen Kreisen oft erfährt. Gleichzeitig werden Vorschläge für praktische Anwendungen basierend auf supervaluationistischem Schließen gemacht. Auch wird versucht, Brücken zwischen den beiden Theorien zu schlagen – es wird sowohl in einem philosophisch-mathematischen, als auch in einem technischen, Kontext versucht, ob Gedankengut der einen Theorie die andere Theorie bereichern könnte.

Diplomarbeitsposter Schütz Margit

Margit Schütz

Diplomstudium Informatik
Abstract:

Ein Großteil der Aussagen unserer natürlichen Sprache sind vage, ein Umstand, der uns im täglichen Leben zwar keine Probleme bereitet, dafür aber umso mehr, wenn es darum geht zu verstehen, wie Menschen auf Grund vager Informationen Entscheidungen treffen. Einerseits gibt es eine lebhafte Diskussion in der analytischen Philosophie, die versucht, die Grundsätze des menschlichen Denkens zu verstehen, falls nur vage Information vorhanden ist. Andererseits ist das Problem des Schließens bei Vorhandensein von vager Information auch für Mathematiker, Ingenieure und Computerspezialisten von großer Bedeutung, besonders dann, wenn es darum geht, Maschinen zu erschaffen, die menschliches Verhalten imitieren sollten. Um dies zu ermöglichen, muss die menschliche Fähigkeit des logischen Schließens formalisiert werden, d.h. es müssen formale Sprachen, Deduktionssysteme und modell-theoretische Semantiken entwickelt werden. Der Großteil der Wissenschaftler und Ingenieure, die im Bereich der Vagheit arbeiten, sind überzeugt, dass Wahrheit in Graden auftritt und vertreten daher sogenannte mehrwertige Logiken. Viele von ihnen halten Fuzzy Logiken, besonders t-norm basierte Logiken, als die am besten geeigneten Logiken, falls vage Information vorliegt, da diese Formalismen relativ einfach zu verstehen sind und in der Vergangenheit bereits große Erfolge erzielt haben. Die kuriose Tatsache, dass Philosophen und Computerspezialisten hauptsächlich getrennt voneinander an ein und demselben Problem arbeiten, ist Ausgangspunkt für diese Diplomarbeit, die die Vor- und Nachteile beider Sichtweisen behandeln soll. Im Detail sind die Ziele der vorliegenden Arbeit folgende: 1) einen Überblick über den Diskurs über Vagheit in der analytischen Philosophie zu geben, wobei die wichtigsten Theorien erläutert und eine brauchbare Klassifikation geliefert werden sollen; 2) Fuzzy Logiken zu diskutieren, da sie von den meisten Computerspezialisten vertreten werden; 3) zu zeigen, welche verschiedenen Mögl...

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Schüller Peter

Peter Schüller

Masterstudium Computational Intelligence
Abstract:

Diese Diplomarbeit behandelt die Zerstörung von Papierdokumenten durch manuelles Zerreißen und evaluiert zwei Verfahren zur Rekonstruktion solcher Dokumente basierend auf Methoden der ganzzahligen linearen Programmierung (ILP). Die vorgestellten Verfahren operieren ausschließlich auf der Form der Schnipsel und rekonstruieren die Ränder der zerstörten Dokumente. Für die Evaluierung wurde ein Modell für manuelles Zerreißen und eine C++ Bibliothek mit einem XML Datenformat entwickelt. Die Simulation des Zerreißprozesses berücksichtigt auch Schereffekte, die Papier beim Reißen - im Gegensatz zum Schneiden - plastisch so verformen, dass die Umrisse benachbarte Stücke nicht mehr exakt zusammenpassen. Die ILP Formulierungen wurden durch umfangreiche empirische Tests mit der CPLEX Software untersucht. Die Performanz und Ergebnisqualität von mehreren Zielfunktionen wurde verglichen, insbesondere solcher die von der CPLEX-spezifischen IloAbs-Absolutwertsberechnung Gebrauch machen und solcher die dies nicht tun. Weiters wurde der sehr performancekritische MIPEmphasis Parameter und das Lazy Constraint Feature von CPLEX evaluiert. Die entwickelte Bibliothek und die Programmwerkzeuge haben sich in den Tests bewährt und eignen sich für weiterführende Untersuchungen innerhalb dieser Domäne. Die ILP Formulierungen zeigen gute Performanz und gute Ergebnissgenauigkeit für Instanzen bestehend aus einer Papierseite und eignen sich deshalb für die Verwendung in Hybridalgorithmen.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Altendorfer Wolfgang

Wolfgang Altendorfer

Masterstudium Informatikmanagement
Abstract:

Keine Angaben

Diplomarbeitsposter Buchetics Matthias

Matthias Buchetics

Masterstudium Visual Computing
Abstract:

Jeden Tag werden riesige Datenmengen produziert, was die Analyse dieser Daten sehr anspruchsvoll macht. Mit der Darstellung von grafischen Repräsentationen anstelle von Tausenden Zahlen, machen sich Visualisierungstechniken die Fähigkeiten des menschlichen Sehsystems bei der Unterstützung in dieser Aufgabe zu nutzen. Der Bereich der Informationsvisualisierung beschäftigt sich hauptsächlich mit abstrakten Daten. Abstrake Daten haben normalerweise keine räumliche Strukture und benötigen daher zusätzliche Schritte, um die Daten auf den Bildschirm abzubilden. Kategorische Daten zeichnen sich in der Regel durch eine limitierte Anzahl von möglichen Ausprägungen aus und haben nicht notwendigerweise eine Ordnung, räumlichen Zusammenhang oder Distanz. Zusätzlich sind kategorische Daten oft hierarchisch strukturiert. Diese Merkmale machen die Visualisierung von kategorischen Variablen schwer und traditionelle Visualisierungstechniken reichen meist nicht aus, um sie sinnvoll darzustellen. Im Folgenden werden aktuell verfügbare Techniken zur Visualisierung von kategorischen Daten vorgestellt. Der wichtigste Beitrag dieser Arbeit ist allerdings die Präsentation von zwei neuen Visualierungstechniken für hierarchisch strukturierte, kategorische Daten. Die erste Technik, Parallel Hierarchies, stellt mehrere Hierarchien gleichzeitig mit Hilfe eines Parallelachsen-Layouts dar und verwendet die Häufigkeiten der einzelnen Kategorien, um ihre grafische Darstellung zu skalieren. Kategorien von benachbarten Hierarchien werden dabei grafisch verbunden und interessante Verbindungen mit aufgrund von statistischen Berechnungen hervorgehoben. Da die meisten Datensätze aber weder ausschließlich numerisch, noch ausschließlich kategorisch sind, beschreibt der zweite Ansatz eine neuartige Technik, den Hierarchical Scatterplot, um eine kategorische Hierarchie in Bezug auf zwei numerische Dimensionen darzustellen. Auch hier unterstützt Statistik die Aufgabe. Beide Techniken sind für eine interak...

Diplomarbeitsposter Freiler Wolfgang

Wolfgang Freiler

Diplomstudium Informatik
Abstract:

Informationsvisualisierung ist ein Forschungsgebiet der Computergraphik, das sich mit der visuellen Repräsentation von abstrakten und meist multidimensionalen Daten beschäftigt. Diese Daten können aus Befragungen, Wahlen, Messungen oder Simulationen stammen. Neben spezialisierten Programmen, die für einen bestimmten Anwendungszweck geschaffen wurden, gibt es universelle Werkzeuge, die für die Analyse von vielen verschiedenen Arten von Daten geeignet sind. Diese Programme können verschiedene Datentypen, wie numerische oder kategorische Daten verarbeiten, manche unterstützen auch weitere Datentypen, wie Zeitserien oder hierarchische Daten. In diesem Dokument wird das universelle Visualisierungsprogramm ComVis um den Datentyp Set (Menge) erweitert. Eine Menge ist eine Sammlung von mehreren Elementen, die auch leer sein kann. In vielen Fällen kann eine Dimension mit dem Datentyp Menge mehrere kategorische Dimensionen ersetzen und die Untersuchung und Analyse von Daten effizienter und verständlicher machen. Diese Arbeit wird nicht nur erklären, wie Mengen zur Untersuchung von Daten genutzt werden können, sondern auch eine neue auf einem Histogram basierende Visualisierungstechnik, die speziell für Mengen gedacht ist, erläutern. Natürlich müssen auch die bereits vorhandenen Visualisierungen für die Darstellung von Mengen modifiziert werden, da dessen Nutzung sonst sehr eingeschränkt wäre. Besonders die Visualisierungen, die mehrere verschiedene Dimensionen darstellen können, sind eine Herausforderung, da hier die bestehenden Datentypen mit Mengen gemischt werden können. Abgesehen von der Visualisierung von Mengen beschäftigt sich dieses Dokument mit einigen verwandten Themen. Die Konvertierung von bestehenden kategorischen Daten ist ein wichtiges Thema, genauso wie eine schnelle und effiziente Datenstruktur zu Speicherung. Die existierenden Interaktionsmethoden, wie Brushing oder Linked Coordinated Views müssen natürlich für alle Datentypen einwandfrei funktionieren. E...

Diplomarbeitsposter Schöllhuber Andreas

Andreas Schöllhuber

Masterstudium Medizinische Informatik
Abstract:

Automatic Segmentation, Myocardial Perfusion, Perfusion, Cardiac MRI, ROI Selection, Registration, Segmentation, Perfusion Analysis

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Aigner Susanne

Susanne Aigner

Wirtschaftsinformatik
Abstract:

In dieser Arbeit sollte der Stellenwert und die Bedeutung von technischen Hilfsmitteln im Leben gehbehinderter Menschen, die auf den Rollstuhl angewiesen sind, erforscht werden. Die subjektive Wahrnehmung der technischen Hilfsmittel sollte somit in dieser Untersuchung herausgearbeitet werden. Darüber hinaus wurde der Frage nachgegangen, ob den betroffenen Menschen bewusst ist, in welchem Maß sie von Technik abhängig sind. Der empirischen Untersuchung der Fragestellung, welche mittels Methoden der qualitativen Sozialforschung erfolgte, ging eine theoretische Abhandlung der Thematik „Körperbehinderung“ voraus. Zur empirischen Datenerhebung wurde das bei Witzel beschriebene problemzentrierte Interview ausgewählt. Die untersuchte Gruppe bestand aus Personen (fünf Frauen, sieben Männern), welche zwischen 21 und 72 Jahren sowie ohne psychische Einschränkungen waren und permanent auf ihren Rollstuhl angewiesen waren. Während ein Teil der Personen ihren Rollstuhl lediglich als Gebrauchsgegenstand betrachtete, sahen ihn die anderen durchaus auch als Designobjekt. Eine motorisierte Fortbewegung bedeutet für Rollstuhlfahrer zumeist mehr als nur die Überwindung einer Strecke von A nach B, sondern es ergibt sich vielmehr eine Gleichstellung – Unterschiede werden aufgehoben, denn man hat als körperbehinderter Autofahrer die gleichen Vorraussetzungen wie nichtbehinderte Lenker. Es zeigte sich, dass die Möglichkeiten, die sich durch den Einsatz von Technik im Alltag und in der Rehabilitation im Leben von Rollstuhlfahrern ergeben, sehr vielfältig sind. Hilfsmittel werden dann genutzt, wenn sie von den Personen als unvermeidbar angesehen werden und somit ihr sinnvoller Einsatz gerechtfertigt ist. In der Arbeit werden weitere Ergebnisse detailliert dargestellt und erläutert.

Diplomarbeitsposter Marchtrenker Felix

Felix Marchtrenker

Masterstudium Medieninformatik
Abstract:

Online Communities, Virtual Communities, Webdesign, Contentmanagement,CMS, Usability

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Ganglbauer Eva

Eva Ganglbauer

Masterstudium Medieninformatik
Abstract:

Ein Bewusstsein für Design erfreut sich in Softwareunternehmen zunehmender Beliebtheit, dennoch sind nach wie vor vorwiegend die EntwicklerInnen gleichzeitig die DesignerInnen eines Softwareprodukts. Erst wenn sich ein Produkt weniger erfolgreich entwickelt als erwartet oder Probleme auftauchen, wird Design als Aspekt einer Produktentwicklung in Betracht gezogen. In dieser Masterarbeit soll diese Situation, deren Ursachen und die Auswirkungen auf die Qualität eines Softwareprodukts beleuchtet werden. Als Gegensatz dazu sollen ein idealer Designprozess, insofern ein solcher existiert, und dessen notwendige Schritte theoretisch abgehandelt werden. Die Masterarbeit wurde von einem Projekt, in dem das Interface eines Document Designers entwickelt wurde, begleitet. Das Projekt wird unter den beschriebenen Aspekten beleuchtet und einer Reflexion unterzogen. Abschließend werden mit Hilfe der Auseinandersetzung mit dem Projekt und den theoretischen Gesichtspunkten die Möglichkeiten des Designs in späten Projektphasen diskutiert. Ziel ist es, ein Bewusstsein für Design und die Notwendigkeit einer Preproduction-Phase in Softwareprojekten zu schaffen.

Diplomarbeitsposter Gharbi Taoufik Naceur

Taoufik Naceur Gharbi

Diplomstudium Informatik
Abstract:

Schnellprototypen / Verhaltensmodellierung / Zustandsdiagramme / UML / SDL / Macromedia Flash / SICAT

Diplomarbeitsposter Minarik Peter

Peter Minarik

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit behandelt die Entwicklung eines Prototypen für den Bereich ELearning. Diese Anwendung soll die Prinzipien des Web 2.0, also der »Social Software«, mit der vorherrschenden Massenlehre verbinden, sodass die negativen Effekte der großen Anzahl der Teilnehmer zu einem Vorteil umgekehrt werden. Nach einer kurzen Einleitung möchte ich eine theoretische Einführung in die projektrelevanten Themen und Begriffe, wie Lehrtheorien, E-Learning und Web 2.0 geben und mich anschließend der Entwicklung der Applikation zuzuwenden. Hier beschreibe ich zuerst das zugrundeliegende Konzept der Applikation und gelange danach zur ersten Entwicklungsstufe, die aus Experimenten mit existierenden Werkzeugen besteht um die Entwicklungszeit zu Beginn möglichst niedrig zu halten. Im nächsten Schritt behandle ich die eigentliche Erstellung des Prototypen und die Erfahrungen die während der Entwicklung gemacht wurden. Zum Abschluss folgt eine Präsentation der Ergebnisse und noch ein Ausblick in die mögliche Zukunft des Prototypen.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Diplomarbeitsposter Andreatta Norbert

Norbert Andreatta

Wirtschaftsinformatik
Abstract:

In heterogenen Computernetzwerken mit verschiedenen Betriebssystemen, Serverdiensten, Applikationen und Netzwerkgeräten bekommt ein effizientes Sicherheitsmanagement eine immer größere Bedeutung. Sei es das Patchmanagement, das Konfigurationsmanagement, der Einsatz von verteilten Intrusion Detection Systemen oder die Risikobewertung realer Angriffsszenarien, als Grundlage wird immer das Wissen bzw. die Dokumentation der im Netzwerk aktiven Geräte und der installierten Software benötigt. Trotz der vielen wissenschaftlichen Publikationen über IT Asset Management gibt es keinen allgemein akzeptierten Standard zum Sammeln der für ein Sicherheitsmanagement relevanten hostbasierenden Daten, noch wie diese Daten weiterverarbeitet werden können. Meist bringen die verschiedenen Sicherheitsapplikationen eigene Hilfsmittel mit, die die bestehende Infrastruktur in einem der Applikation zugrundeliegenden Datenmodell abbildet. Dadurch werden nicht alle relevanten Informationen zur Netzwerk- und Hostinfrastruktur und zur installierten Software abgebildet, sondern nur die für diese spezielle Applikation benötigten Teilbereiche. Zudem ist esmeist sehr aufwendig bzw. nicht möglich, dieses bestehende Datenmodell mit zusätzlichen Informationen zu erweitern. Diese Diplomarbeit stellt einen alternativen und offenen Ansatz zum Inventarisieren der Netzwerkinfrastruktur, der aktiven Netzwerkkomponenten und der installierten Software vor. Die Idee hinter dem in dieser Diplomarbeit zu entwickelnden Inventarisierungsprogramm atc-inventory ist es, durch die Integration bestehender Sicherheits- und Netzwerkmanagementprogramme ein komplettes Bild der IT Infrastruktur zu erstellen und in einem einzigen Datenmodell abzubilden. Jede integrierte Applikation ist für einen speziellen Bereich der Inventarisierung zuständig, die Schnittstellen zu den eingebundenen Programmen ist genau spezifiziert. Durch den offenen Ansatz und die Integration verschiedener Sensoren ist es zudem möglich, alle relevante...

Diplomarbeitsposter Aulehle Christian

Christian Aulehle

Masterstudium Business Informatics
Abstract:

Web 2.0 Technologien haben mit ihrem Einzug das Medium Internet bereits starken Veränderungen unterworfen. Die daraus entstandenen Plattformen bieten dem Benutzer ein komplett neues Spektrum an Möglichkeiten. Verlangen wie Selbstdarstellung und Kreativität werden befriedigt. Mit dem Einzug der Web 2.0 Technologien wuchs ebenfalls die Anzahl der synthetischen Welten. Die bekannteste Plattform dieser Art stellt Second Life dar. Diese Plattform, welche bereits über 10 Mio. registrierte Benutzer vorweist, verdeutlicht den Drang der Benutzer sich selbst in einer - wenn auch virtuellen - Welt zu verwirklichen. Diesen Kriterien wird Second Life auch gerecht und bietet seinen Bewohnern fast keine Limitierungen, um ihre geheimen Träume auszuleben. Aber auch der Sektor E-Commerce kann sich dem Einfluss der synthetischen Welten nicht entziehen. Der dadurch geschaffene Wirtschaftssektor erfreut sich steigender Beliebtheit. Zahlreiche Projekte großer Firmen finden bereits parallel auf realer und virtueller Ebene statt. Der praktische Teil, welcher dieser Masterarbeit zu Grunde liegt, ist die Implementierung eines Prototyps in die virtuelle Welt von Second Life. Hierbei wurde ein Theaterstück im virtuellen Raum umgesetzt. Mit Hilfe des Prototyps sollten die Interaktionsformen innerhalb der virtuellen sowie zwischen realer und virtueller Welt evaluiert und im Hinblick auf die Integrationsmöglichkeiten in ein reales Theaterstück beurteilt werden. Diese praktische Umsetzung und das daraus gewonnene Wissen wurde im Weiteren dazu verwendet um die synthetischen Welten auf ihre Wettbewerbsfähigkeit im Sektor E-Commerce zu analysieren. Es werden die Vorteile und Schwachstellen beider Systeme gegenübergestellt und Geschäftsmodelle innerhalb bzw. für die virtuelle Welt erläutert.

Diplomarbeitsposter Böhme Andreas

Andreas Böhme

Masterstudium Software Engineering & Internet Computing
Abstract:

JavaME / J2ME / Lifelong Learning / Mobile Learning / Game-based Learning / MGBL / Ahead of the Game

Diplomarbeitsposter Dilaveroglu Erkan

Erkan Dilaveroglu

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Analyse biologischer Datensätze ist oftmals komplex und besteht aus einer Vielzahl an einzelnen Analyseschritten. Dementsprechend hoch ist der Anspruch an die verwendeten Analysewerkzeuge, wo man zunehmend auf die Flexibilität von Workflowsystemen vertraut um komplexe Analysefolgen als sogenannte Analysepipelines abzubilden. Dieser Entwicklung zum Trotz gibt es vergleichsweise wenig neue Ansätze zur Strukturierung, Integration und Verwaltung des Analysedatenflusses. Die Nachvollziehbarkeit wissenschaftlicher Experimente ist einer der wichtigsten Charakteristiken in Analysewerkzeuge. Diese wird hingegen in derzeit existierendem Analysewerkzeuge nur beschränkt unterstützt. Im Rahmen dieser Diplomarbeit wurde eine generisches Datenverwaltungsframework (Portable Projekt-Management-System) entwickelt, das Analysedaten mitloggen, automatisch strukturieren und verwalten kann mit dem Ziel, einer lückenlosen Erfassung des gesamten Datenstroms komplexer Analysen. Das System wurde dafür konzipiert, verschiedene Analysesysteme zu unterstützen, wobei ein spezieller Fokus auf die Kompatibilität mit der ARC Analyse Plattform gesetzt wurde. PPMS© Server wurde als Soap basiertes Web Service entwickelt, der Client besitzt aber auch Mechanismen, die das Arbeiten auch offline ermöglichen. Das System umfasst ein Projektmodell, um alle erforderlichen Analyse Daten zu vereinen; ein integriertes Provenance System zur Protokollierung aller erfolgten Schritte und spezielle Module die es ermöglichen, die Funktion bzw. die Pipelines des jeweiligen Analysesystems mit vorher gespeicherten Parametern erneut auszuführen. Neben seinem Einsatz im Rahmen der ARC Analyseworkbench kann das PPMS© von verschiedenen Plattformen als ein vom Analysesystem unabhängiges, eigenständiges Soap basiertes Web Service benutzt werden.

Diplomarbeitsposter Edlinger Markus

Markus Edlinger

Masterstudium Information & Knowledge Management
Abstract:

Virtuelle Welten nehmen derzeit eine steigende Bedeutung als Interaktionsmedium im Marketingbereich und zwischen Privatanwendern ein. Obwohl bereits sehr viele Experimente und Projekte in diesem Bereich durchgeführt wurden, sind immer noch Potentiale vorhanden, die noch nicht genutzt werden. Die Masterarbeit befasst sich mit einem dieser Potentiale und erkundet die Möglichkeiten und Grenzen in Bezug auf Interaktionsformen innerhalb virtueller Welten. Als exemplarische Plattform für die Untersuchung wird Second Life herangezogen, weil dies eine der derzeit größten virtuellen Onlinewelten ist. Die Grundlage der Arbeit sind praktische Aufführungen eines kurzen Theaterstücks in Second Life, wobei reale Benutzer mittels ihrer Avatare als Schauspieler fungieren. Dabei wird untersucht, welche Techniken und Verfahren eingesetzt werden können, um die Aktionen nach den Anforderungen eines Theaterstücks zu gestalten. Als theoretischen Hintergrund liefert die Arbeit Überblicke über Avatare als Akteure für virtuelle Interaktion, allgemeine soziale und technologische Interaktionsformen in virtuellen Welten sowie Computeranimationstechniken, mit denen grundlegende Elemente für soziale Interaktionen geschaffen werden können.

Diplomarbeitsposter Gindl Stefan

Stefan Gindl

Masterstudium Medizinische Informatik
Abstract:

Medizinische Daten werden in der Regel in natürlicher Sprache abgespeichert. Dies liegt daran, dass medizinisches Personal im Normalfall keine Rücksicht auf eine spätere Verarbeitung in automatisierten Systemen nimmt. Die Informationen sind daher nicht sofort für eine Verarbeitung mit Computern verfügbar. Aus diesem Grund wurden vielfach Anstrengungen unternommen, um die Daten in ein für Computer verarbeitbares Format überzuführen. Dieser Umstand gilt auch für medizinische Leitlinien (sogenannte “Clinical Practice Guidelines” (CPGs)). Sie sind, wie alle medizinischen Dokumente, ebenfalls in natürlicher Sprache verfaßt, ohne Rücksichtnahme auf eine computergestützte Verarbeitbarkeit. Die Einführung von medizinischen Leitlinien im klinischen Umfeld macht allerdings eine automatisierte Verarbeitung wünschenswert. In diesem Zusammenhang muß weiters beachtet werden, dass ein großer Teil der Information in medizinischen Leitlinien in negierter Form vorhanden ist. Die Tatsache, dass diese negiert vorliegt, macht sie aber deswegen nicht irrelevant oder weniger beachtenswert. Im Gegenteil, oftmals werden auf diese Art und Weise ungeeignete Behandlungsverfahren gekennzeichnet, beziehungsweise Behandlungen, die bei gegebenen physiologischen Zuständen nicht durchgeführt werden sollen oder dürfen. Solche Informationen können den Behandelnden helfen, die richtigen Therapieverfahren anzuwenden oder auch gewisse Verfahren abzulehnen. Dementsprechend ist die Erfassung von Negationen (die sogenannte “Negation Detection”) in medizinischen Leitlinien ein essentieller Bestandteil für die automatisierte Weiterverarbeitung dieser Art von medizinischen Dokumenten. Entscheidungsprozesse werden somit beschleunigt und dies wirkt sich positiv auf die Behandlung der Patienten aus. Um diese Aufgabe zu lösen haben wir Algorithmen entwickelt, die das Auffinden von Negationen in medizinischen Leitlinien ermöglichen sollen. Dazu benutzen wir syntaktische Verfahren, die die englische Grammatik gez...

Diplomarbeitsposter Gschwandtner Theresia

Theresia Gschwandtner

Masterstudium Medizinische Informatik
Abstract:

Medizinische Leitlinien zu formalisieren und zu modellieren, sodass sie automatisiert verarbeitet und ausgewertet werden konnen, ist eine komplexe, aber sehr wichtige Aufgabe, da die automatische Ausfuhrbarkeit von Leitlinien die Anwendung des best-moglichen medizinischen Wissens bei der Patientenversorgung ermoglicht, ohne diese aufzuhalten. Bevor aber der medizinische Text in eine solche Form gebracht werden kann, ist es wichtig, ihn so aufzubereiten, dass sein Inhalt, d.h. die enthaltenen medizinischen Konzepte, eindeutig identiziert und beschrieben werden, um eine korrekte Interpreptation zu gewahrleisten. Semantische Annotationssysteme erkennen die medizinischen Konzepte in Leitlinien und ordnen ihnen entsprechende Konzepte aus medizinischen Terminologien, wie z. B. dem UMLS Metathesaurus zu, die wiederum notwendige zusatzliche Informationen enthalten. Aufgrund der Mehrdeutigkeit von freisprachlichen Texten kann die korrekte automatische Identi kation und Zuordnung von medizinischen Konzepten mit Hilfe dieser Systeme vermutlich nie vollkommen gewahrleistet werden. Da aber gerade auf einem so sensiblen Gebiet wie der Medizin die absolute Fehlerfreiheit von Ergebnissen ma geblich ist fur ihre weitere Verwendbarkeit, ist es unbedingt notwending, dass diese von ExpertInnen kontrolliert und gegebenenfalls korrigiert werden. Daher habe ich einen Editor fur das MetaMap Transfer (MMTx) Program entwickelt, der medizinischen ExpertInnen diese Arbeit ermoglicht, ohne spezielle Kenntnisse auf dem Gebiet der Informationsverarbeitung vorauszusetzen. MapFace wurde entworfen, um sowohl die Bearbeitung der Ergebnisse von MetaMap auf einfache Weise zu gewahrleisten, als auch die Verfugbarkeit und Visualisierung aller verknüpften Informationen auf einen "Maus-Klick" anzubieten.

Diplomarbeitsposter Heurix Johannes

Johannes Heurix

Wirtschaftsinformatik
Abstract:

risk assessment / business processes / security / multiple objectives / decision support

Diplomarbeitsposter Kaltenbach Andreas

Andreas Kaltenbach

Diplomstudium Informatik
Abstract:

Distributed Pair Programming, Tools, Evaluation

Diplomarbeitsposter Pöchlinger Stefan

Stefan Pöchlinger

Masterstudium Business Informatics
Abstract:

Radiofrequenzidentifikation (RFID) ist ein grundlegender Bestandteil des kommenden "Internets der Dinge". In dieser Arbeit wird ein Überblick über den sicherheitstechnischen Stand der Forschung und die in diesem Bereich verfügbaren wissenschaftlichen Publikationen geboten. Neben den neuesten Trends werden auch eine Reihe von Beobachtungen auf Basis der verfügbaren Arbeiten geboten. Die Arbeit umfasst weiters eine Einführung in das Themengebiet und eine kurze statistische Klassifikation der untersuchten Literatur.

Diplomarbeitsposter Schnabl Stefan

Stefan Schnabl

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die vorliegende Arbeit präsentiert Methoden zur Unterstützung von Entwicklern von Internet Applikationen im Bereich der Softwareentwicklung. Der Fokus liegt hierbei vor allem auf Unterstützung der Umsetzung der Geschäftsprozesse der Applikation durch Visualisierung. Dazu werden Nutzungsdaten einer exemplarischen Web Applikation mit existierenden und neu entwickelten Visualisierungs- und Interaktionsmethoden analysiert. Das bekannte Konzept eines Regelkreises wird durch Kombination mit dem Informationsfluss in und um eine Web Applikation zum Web Information Cycle (WIC) zusammengeführt. Damit wird ein umfassendes Konzept zur Darstellung des Informationsflusses in und um Web Applikationen vorgestellt. Innerhalb des WIC werden die relevanten Punkte für den datengenerierenden Prozess der Nutzungsdaten und deren Rückfluss in Form von Analysen im Detail untersucht. Der Rückfluss von Information in Form von Analysen stellt einen Vorteil gegenüber bekannten Methoden dar und bringt eine Verbesserung für die Entwickler und in weiterer Folge für die Nutzer der Web Applikation. Um die Nutzungsdaten in geeigneter Form darstellen zu können präsentieren wir eine Auswahl an existierenden Visualisierungs- und Interaktionsmethoden. Spezieller Fokus wird hierbei auf Methoden mit einem statistischen Hintergrund gelegt, wobei wir den Mosaicplot im Detail darstellen. Auf praktische Verwendbarkeit der Methoden wird ebenfalls eingegangen. Für eine spezielle Anwendung wird eine individuelle Visualisierungstechnik mit Namen Logsnakes in R Code erstellt. Ein vorgestelltes Datenmodell zusammen mit den Visualisierungs- und Interaktionsmethoden wird durch UML Diagramme beschrieben. Diese Diagramme sind die Basis für Experteninterviews in welchen die Konzepte mit Fokus auf den parktischen Einsatz evaluiert werden. Die Resultate der Interviews werden präsentiert und diskutiert.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Fölsner Bernhard

Bernhard Fölsner

Masterstudium Medieninformatik
Abstract:

Diese Arbeit beschäftigt sich mit der qualitativen Evaluierung zweier State-of-the-Art Matting-Algorithmen, die auf Grundlage von Benutzereingaben Bildinhalte segmentieren. Bislang bildeten hauptsächlich quantitative Methoden die Basis, um berechnete Daten zu bewerten. Grundlage dafür bildeten meist Mittelwertverfahren, die den Abstand zwischen berechnetem Ergebnis und optimaler Lösung heranzogen. Derartige computergestützte Berechnungsverfahren reichen jedoch nicht aus, um visuelle Information ausreichend zu analysieren, weil sie keinen Bezug zur menschlichen Wahrnehmung herstellen. Aus diesem Grund wurde in dieser Arbeit eine Studie entworfen, die auf wahrnehmungspsychologische Erkenntnisse zurückgreift, um die Qualität von Bildkompositionen hinreichend zu bewerten. 26 Probanden evaluierten digitale Nachbearbeitungen, um die Praxistauglichkeit der beiden zu untersuchenden Matting-Algorithmen festzustellen. Sowohl beim Erstellungsprozess, als auch bei der Auswertung der Daten, die unter Verwendung einer Eye-Tracking Kamera vertiefte Erkenntnisse brachte, wurden visuelle Eigenschaften des Menschen berücksichtigt, um möglichst aussagekräftige Resultate zu erzielen. Die Studie in dieser Arbeit zeigte, dass sich die Testpersonen hauptsächlich auf zwei Möglichkeiten beim Blickverhalten beschränkten. Während gerade für erfahrene Teilnehmer das exakte und zeitintensive Abtasten von kleinen Bildbereichen die Grundlage für ihre Bewertungen bildete, zeichneten sich andere Personen durch eine Gesamtanalyse der Bilder aus. Obwohl die Herangehensweise erfahrener Probanden nicht bei allen dargebotenen Bildern zielführend war, konnten diese Personen überdurchschnittlich viele Fehler der Algorithmen beschreiben. Eine exakte Aufschlüsselung der Studienresultate brachte die Erkenntnis, dass die häufigste Ursache für schlecht befundene Bildkompositionen im mangelhaften Angleichen von Vordergrundobjekten an andere Umweltverhältnisse im Hintergrundbild zu finden war. Letztendlich li...

Diplomarbeitsposter Schönauer Christian

Christian Schönauer

Diplomstudium Informatik
Abstract:

Motion Capture Systeme müssen heutzutage hochqualitative Bewegungsdaten liefern. Trotzdem sollen sie flexibel sein und leicht für verschiedene Darsteller anzupassen. Deswegen ist die Bestimmung der Parameter des Skeletts ein wichtiger Bestandteil solcher Systeme. Die automatische Bestimmung dieser Werte unter Verwendung von optischen Bewegungsdaten ohne Zuhilfenahme zusätzlicher Messungen ist jedoch eine anspruchsvolle Aufgabe. Diese Arbeit beschreibt welche Schritte notwendig sind um die Gelenkspositionen sowie die Länge der Gliedmaßen zu bestimmen. Dazu werden die Daten eines passiven optischen Tracking Systems verwendet. Der verwendete Algorithmus ist ein mehrstufiger Prozess. Zunächst werden die getrackten Markerpositionen den physikalischen Markern zugeordnet und nach Körperteilen gruppiert. Dann werden die Gelenkspositionen und die Topologie des Skeletts bestimmt. Schließlich werden die Parameter der Struktur berechnet. Da die Topologie ausschließlich aus den Daten bemessen wird ist im Vorhinein kein Modell notwendig. Dieser Umstand macht es möglich mit dem implementierten System nicht nur menschliche Bewegungen aufzuzeichnen. Jede beliebige durch Gelenke verbundene Struktur kann damit ohne jegliche Adaptierung oder zusätzlichen Aufwand erfasst werden. Die Kernfunktionalität der Applikation - die Berechnung des Skeletts - wird mit Hilfe einer Distanzfunktion bewältigt. Diese wird auf die Markerpositionen angewendet und durch einen nichtlinearen Optimierungsalgorithmus minimiert. Das System wurde mit verschiedenen Daten getestet. Neben menschlichen Bewegungdaten wurden generiertes Datenmaterial und Messungen einer Konstruktion von durch Gelenke verbundenen Holzstäben verwendet. Die Resultate zeigen hohe Genauigkeit für die künstlichen Daten. Für die getrackten Datensätze wurden ebenfalls zufriedenstellende Ergebnisse erzielt.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Hiebler Thomas

Thomas Hiebler

Masterstudium Business Informatics
Abstract:

Betrachtet man den Trend der vergangenen Jahre, so ist die modellgetriebene Softwareentwicklung, kurz MDSD, der nächste logische Schritt in der Anwendungsentwicklung. Die leichte Verständlichkeit und die rasche Anpassung an wechselnde Implementierungstechnologien werden als großer Vorteil von MDSD gesehen. In derzeitigen Softwareentwicklungsprozessen trifft man bei der Entwicklung von Anwendungen auf eine Vielzahl von Problemen. Die Dominierung von Fachlichkeit durch Technik, die Divergenz der Änderungszyklen und der methodische Bruch zwischen Analyse, Design und Implementierung sind einige nennenswerte Beispiele. Der modellgetriebene Ansatz versucht diese Probleme zu vermindern, indem er die ohnehin für die Entwicklung notwendingen Softwaremodelle als Sourcecode behandelt. Diese Arbeit zeigt eine mögliche Lösung dieser Probleme durch die Verwendung eines modellgetriebenen Ansatzes. Das Ziel ist es, eine modellgetriebene Entwicklungsumgebung für Modellierung und Generierung von Webanwendungen auf Basis des JBoss Seam Frameworks, welches gängige Java-Technologien miteinander kombiniert, anzubieten. Neben der Generierung der benötigten Backend-Datein aus UML 2.0 Strukturdiagrammen wird weiters die Generierung einer prototypischen Benutzeroberfläche aus UML Verhaltensdiagrammen gezeigt. Diese kann für Tests und als Ausgangsbasis für das Design der Webanwendung herangezogen werden. Neben dem Frontend und dem Backend der Anwendung wird auch der Qualitäts-Aspekt in der Arbeit behandelt. Hierbei werden Möglichkeiten gezeigt, wie Testinformationen aus den Modellen gewonnen werden können. Dies soll den Bereich der Softwarequalitätssicherung abdecken und den effektiven Testaufwand in einer realen Entwicklung reduzieren. Als Referenzanwendung dient ein Web-DVD-Shop, der für die Erstellung der Generatoren und Modelle herangezogen wird. Anhand dieser Referenzanwendung wird auch der derzeitige Automatisationsgrad durch MDSD besprochen.

Diplomarbeitsposter Sokop Christian

Christian Sokop

Masterstudium Business Informatics
Abstract:

In der heutigen Zeit ändern sich Anforderungen an Anwendungen laufend. Neben den Anforderungen haben sich natürlich auch die Hilfsmitteln und Technologien weiterentwickelt. Moderne objektorientierte Sprachen wie z.B. UML und Java werden den heutigen Ansprüchen gerecht. Die objektorientierte Programmiersprache Java, oder besser gesagt die Java Enterprise Edition, eignet sich hervorragend um verteilte Systeme, zu denen auch Webanwendungen zählen, zu entwickeln. UML 2.0 ist´mit ihren aktuellen Diagrammarten ebenfalls sehr gut für die Modellierung von verteilten Anwendungen geeignet. Diese Arbeit evaluiert das Zusammenspiel zwischen UML 2.0 und Java Enterprise Anwendungen. In UML 2.0 gibt es insgesamt 13 verschiedene Diagrammarten. Jedes einzelne Diagramm hat Stärken und Schwächen in Bezug auf Enterprise Anwendungen. Diese Arbeit zeigt, welche Teile einer Enterprise Anwendung sich mit welchem Diagramm in UML 2.0 modellieren lassen bzw. welche nicht. Zusätzlich geht diese Arbeit auch auf die Möglichkeiten ein, allgemeine Aspekte einer Enterprise Anwendung zu modellieren, wie z.B. Design Patterns und Systemarchitekturen. Dabei werden für ein bestehendes Beispiel die einzelnen Diagramme, die UML 2.0 zur Verfügung stellt, modelliert. Ein weiteres Ziel der Arbeit ist, einen generellen Überblick von UML 2.0 Diagrammarten im Rational Unified Process zu geben. Dabei wird evaluiert, welches Diagramm in welcher Phase des Unified Process in Bezug auf Enterprise Anwendungen hilfreich sei kann.

Diplomarbeitsposter Solarz Jeremy

Jeremy Solarz

Masterstudium Software Engineering & Internet Computing
Abstract:

Modellgetriebene Softwareentwicklung (MDSD) soll dabei helfen, Softwaresysteme hinsichtlich ihrer Komplexität zu vereinfachen und ihre Qualität zu steigern. Dazu werden Werkzeuge benötigt, welche den Benutzer dabei unterstützen. Ein Bestandteil von MDSD ist Model Weaving, welches für eine Vielzahl von Anwendungen eine Voraussetzung darstellt. Unter anderem liefert Model Weaving die nötigen Informationen, um daraus Modelltransformationen abzuleiten. Es ist möglich, mehrere Modelle durch diese Modelltransformation in ein Modell zusammen zu führen, Modelle in ihrem Informationsumfang zu erweitern und dergleichen. Herkömmliche Ansätze, wie der ATLAS Model Weaver (AMW) der ATLAS Group, sind als Rich-Client-Anwendung implementiert, was nicht immer von Vorteil ist. Zusätzliche Ressourcen auf der Client-Seite und eine Installation beim Benutzer zählen dazu. Da der AMW Bestandteil des Eclipse Modelling Frameworks ist und nicht jede Version miteinander kompatibel ist, kann es hier zu unerwarteten Schwierigkeiten kommen. Auch in der modellgetriebenen Softwareentwicklung haben sich Plattformen entwickelt, welche den Austausch von Modellen erleichtern sollen. Diese als ''Model Repositories'' bezeichneten Plattformen sollen Grundgerüste für die Modellentwicklung bereitstellen. Hier wäre es hilfreich, Verbindungen zwischen den einzelnen ''Repositories'' zu schaffen. Ziel dieser Arbeit ist es, basierend auf dem MetaModelbrowser von Jürgen Flandorfer, eine Anwendung zu entwickeln, welche das Thema Model Weaving aufgreift und versucht, dieses mit dem Web zu verbinden. Dies hat den Vorteil, dass dem Benutzer der Umgang mit dem Web vertraut ist, somit kein zusätzlicher Lernaufwand entsteht. Probleme bezüglich Performanz auf der Clientseite werden vermieden und ein leichtgewichtiger, ressourcensparender Client wird geschaffen, welcher keine Installation mehr benötigt. Da eine weitgehend eigenständige Weaving Umgebung geschaffen wird, kommt es nicht zu einem Zusammenspiel mehrerer Sof...

Diplomarbeitsposter Tomasek Cornelia

Cornelia Tomasek

Masterstudium Software Engineering & Internet Computing
Abstract:

aspectWebML, Integration, Weaving, Modellierung, Crosscutting Concerns, Aspektorientierung

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Diskrete Mathematik und Geometrie

Diplomarbeitsposter Eisler Andreas

Andreas Eisler

Wirtschaftsinformatik
Abstract:

Die Arbeit teilt sich grundsätzlich in 3 Teile. Im ersten Teil wird die mathematische Theorie bearbeitet, die dem Leser das nötige Wissen vermitteln soll, um die späteren Ausführungen nachvollziehen zu können. Es handelt sich somit um eine genaue Erläuterung, wie man Kurven über Primrestklassenringen zeichnen kann, und auf welche Art und Weise sich die Punkte der Kurve, welche sich in diesen Restklassengruppen befinden, zueinander verhalten. Im zweiten Teil wird nun genau die Kryptographie selbst behandelt. In diesem Zusammengang werden einige mathematischen Theoreme und Methoden zur Verschlüsselung und Schlüsselsuche mit elliptischen Kurven vorgestellt und bearbeitet. Im dritten Teil der Arbeit werden praktische Beispiele vorgeführt und mittels selbst entwickelten Algorithmen und Methoden wird das theoretisch bearbeitete Wissen umgesetzt. Dieser Teil ist der bei weitem arbeitsintensivste und auch eigentliche Kern der Diplomarbeit. Die Programme / Algorithmen wurden auf Anraten des Betreuers in DERIVE programmiert und bilden eine Basis zum chiffrieren und dechiffrieren, als auch zur Schlüsselgenerierung und Schlüsselsuche (bei fremden Code). Besonderes Augenmerk wurde auf das Lösen des ECDL- Problems und das Bestimmen der Ordnung einer elliptischen Kurve gelegt.

(vor 2018) Institut für Statistik und Wahrscheinlichkeitstheorie

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Reza Mohammadi, Ilhami Visne
Diplomarbeitsposter Seyfang Leonhard

Leonhard Seyfang

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Variablenselektion Variablenauswahl Multivariate Daten Informationskriterium Modellbildung Prognose Interpretierbarkeit Stepwise Kreuzvalidierung R (Statistiksoftware)

(vor 2018) Institut für Fertigungstechnik und Hochleistungslasertechnik

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Mücahit Celik, Behnaz Saadat
Diplomarbeitsposter Ilhan Haci Yusuf

Haci Yusuf Ilhan

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Keine Angaben

(vor 2018) Institut für Mechanik und Mechatronik

Diplomarbeitsposter Wallentin Lukas

Lukas Wallentin

Masterstudium Technische Informatik
Abstract:

Video / Furoshiki / Robyspace / VHDL

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Halis Gülcan

Gülcan Halis

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Mitarbeiterzufriedenheit , Mitarbeitermotivation, Messung der Mitarbeiterzufriedenheit und -motivation

Diplomarbeitsposter Halper Christian

Christian Halper

Masterstudium Business Informatics
Abstract:

Im Rahmen dieser Diplomarbeit, welche aufgrund der hohen Komplexität der Aufgabenstellung durch zwei Studenten bearbeitet werden musste, soll auf Grundlage einer Prozessmodellierung zum Thema „Schlaganfall“ und den Daten, welche von dem Österreichischen Bundesinstitut für Gesundheitswesen zur Verfügung gestellt wurden, die Ist-Situation der medizinischen Versorgung von Schlaganfällen an der Stroke Unit der Barmherzigen Brüder beleuchtet werden. Die medizinische Behandlung von Patienten in Krankenhäusern weist für gleichartige Eingriffe große Unterschiede auf. Zur transparenten Darstellung von Arbeitsabläufen stellt die Prozessanalyse und –modellierung ein effektives Instrument dar. Eine Verknüpfung der Prozessanalyse mit den zur Verfügung gestellten Daten ermöglicht es Verbesserungsvorschläge zum Ablauf des Schlaganfallprozesses zu erarbeiten. Darauf folgend wurden Fragestellungen mit Hilfe des zur Verfügung gestellten Datensatzes der Barmherzigen Brüder, welche im Zuge der Arbeit beantwortet werden sollen, festgelegt. Daraus resultierend wurde eine Datenanalyse durchgeführt, bei der die Fragestellungen präzisiert wurden. Als nächster Schritt folgte die endgültige Auswertung des Datenmaterials. Auf Grundlage der Ergebnisse wurden Verbesserungsvorschläge und Empfehlungen gemacht. Die genannten Daten wurden sowohl hinsichtlich ihres zeitlichen Verlaufs (2003- 2007) als auch hinsichtlich der jeweils zugrunde liegenden Fragestellung analysiert. Die statistischen Auswertungen erfolgten mit Hilfe der Statistiksoftware SPSS sowie dem Office-Produkt Excel.

Diplomarbeitsposter Helva Aslihan

Aslihan Helva

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Kundenzufriedenheit nimmt in marktorientierten Unternehmen eine zentrale Stellung ein. Zahlreiche Studien, die den Zusammenhang zwischen Kundenzufriedenheit und Unternehmens­erfolg untersuchten, bestätigen die positiven Auswirkungen der Kundenzufriedenheit. Die Zufriedenheit der Kunden gewährt einem Unternehmen kontinuierliches Wachstum und Erfolg, weil zufriedene Kunden länger bleiben, mehr kaufen und das Unternehmen weiter­empfehlen. Gebundene Kunden sind loyale Kunden und kaufen öfter, sie kaufen mehr, sie sind weniger preissensibel, agieren durch Mund-zu-Mund-Propaganda als Fürsprecher des Unternehmens und verursachen weniger Kosten als die Akquirierung neuer Kunden. In dieser Arbeit wurden die wichtigsten Fachbegriffe der Kundenzufriedenheit beschrieben, um die Kundenprobleme zu identifizieren. Diese Themen sind die Kundenorientierung, Kunden­zufriedenheit, Kundenbindung und Beschwerdemanagement. Im Kapitel 2 werden die Begriffe und Ziele der Kundenorientierung behandelt. Ziel der Kundenorientierung ist immer die Zufriedenheit der Kunden. Die geeigneten Strukturen, der Einsatz moderner technologischer Lösungen und von Führungskräften und Mitarbeitern, die aus der Sicht des Kunden denken und handeln, ist sehr wichtig, um eine maximale Kunden­orientierung zu erzielen. Jedes Unternehmen kann dem Ziel nach Anerkennung und Gewinn einen Schritt näherkommen, wenn es das Verhalten und die Erwartung des Kunden kennenlernt. Durch eine Kundenzufrieden­heitsanalyse kann versucht werden, die tatsächliche Kundenzufriedenheit zu erfassen. Die Zufriedenheitsmessung hat die Aufgabe, Informationen über die Wahrnehmung der Leistungen und des Angebots des Unternehmens durch die Kunden zu sammeln. Je mehr Informationen ein Unternehmen über seine Kunden sammelt, desto besser kann es spezifische Wünsche und Bedürfnisse erfüllen. Die Verfahren zur Messung der Kundenzufriedenheit müssen an das jeweilige Unternehmen und die zu untersuchenden Kunden angepasst werden. Anhand der Ergebn...

Diplomarbeitsposter Kocsisek Christoph

Christoph Kocsisek

Masterstudium Business Informatics
Abstract:

Im Rahmen dieser Diplomarbeit, welche aufgrund der hohen Komplexität der Aufgabenstellung durch zwei Studenten bearbeitet werden musste, soll auf Grundlage einer Prozessmodellierung zum Thema „Schlaganfall“ und den Daten, welche von dem Österreichischen Bundesinstitut für Gesundheitswesen zur Verfügung gestellt wurden, die Ist-Situation der medizinischen Versorgung von Schlaganfällen an der Stroke Unit der Barmherzigen Brüder beleuchtet werden. Die medizinische Behandlung von Patienten in Krankenhäusern weist für gleichartige Eingriffe große Unterschiede auf. Zur transparenten Darstellung von Arbeitsabläufen stellt die Prozessanalyse und –modellierung ein effektives Instrument dar. Eine Verknüpfung der Prozessanalyse mit den zur Verfügung gestellten Daten ermöglicht es Verbesserungsvorschläge zum Ablauf des Schlaganfallprozesses zu erarbeiten. Darauf folgend wurden Fragestellungen mit Hilfe des zur Verfügung gestellten Datensatzes der Barmherzigen Brüder, welche im Zuge der Arbeit beantwortet werden sollen, festgelegt. Daraus resultierend wurde eine Datenanalyse durchgeführt, bei der die Fragestellungen präzisiert wurden. Als nächster Schritt folgte die endgültige Auswertung des Datenmaterials. Auf Grundlage der Ergebnisse wurden Verbesserungsvorschläge und Empfehlungen gemacht. Die genannten Daten wurden sowohl hinsichtlich ihres zeitlichen Verlaufs (2003- 2007) als auch hinsichtlich der jeweils zugrunde liegenden Fragestellung analysiert. Die statistischen Auswertungen erfolgten mit Hilfe der Statistiksoftware SPSS sowie dem Office-Produkt Excel.

Diplomarbeitsposter Kolar Hannes

Hannes Kolar

Masterstudium Business Informatics
Abstract:

Attributionsanalyse, Performancerechnung, Beitragsrechnung, Portfolioanalyse, GIPS, Renditerechnung

Diplomarbeitsposter Sternecker Rainer

Rainer Sternecker

Masterstudium Business Informatics
Abstract:

Dritter Sektor Gemeinnützigkeit Ehrenamtlich, gemeinnützig Rotes Kreuz Zivildienst Umfrage Analyse Modellbildung Nutzenempfinden Zufriedenheit Optimierung

Diplomarbeitsposter Ulitsch Martin

Martin Ulitsch

Masterstudium Business Informatics
Abstract:

interkulturelle Kompetenz, virtuelle Teams, Kulturunterschiede, Teamerfolg

Diplomarbeitsposter Zechner Lorenz

Lorenz Zechner

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Outplacement, personalpolitisches Instrument, DBM, KARENT, von Rundstedt HR Partners, BeraterGruppe Sievering, AMS

(vor 2018) Institut für Computertechnik

Diplomarbeitsposter Hartner Georg

Georg Hartner

Diplomstudium Informatik
Abstract:

Diese Arbeit behandelt Fail-Safe Eisenbahn-Applikationen. Fail-Safe Systeme kennen einen sicheren Zustand, in den sie im Fehlerfall gebracht werden und abgeschaltet werden können, ohne Menschen oder Material zu gefährden. Diese Fehler müssen von Seiten des Systems erkannt werden. Sicherheitskritische Anwendungen laufen auf Betriebssystemen, Betriebssysteme laufen auf Hardware. Daher sind nicht nur die Anwendungen selbst, sondern auch Betriebssystem und Hardware potentielle Fehlerquellen. Weil sie mögliche Fehlerquellen darstellen, müssen sie sorgfältig verifiziert und validiert werden, ihr Funktionieren überwacht. Dies ist sehr teuer, was den Personalaufwand betrifft, und erhöht die Entwicklungszeit für die betreffenden Produkte. Zur Zeit müssen ganze Betriebssysteme und ihre Funktionen Zeile für Zeile von Experten verifiziert werden. Heutzutage werden diese immer komplexer und ändern sich schnell. Für jede neue Version oder Änderung wird der Code erneut überprüft. Komplexe Hardware-Test werden entwickelt werden, um unterschiedlichen Architekturen zu genügen. Ändert sich die zu überprüfende Hardware, müssen die komplexen Tests neu geschrieben werden. Als Lösungsvorschlag beschreibt diese Arbeit einen Safety-Layer zwischen den Applikationen und dem Betriebssystem. Diese Schicht bietet den Zugriff auf herkömmliche System Calls über Wrapper-Funktionen, die mit Features zur End-to-End-Fehlerdetektion angereichert sind. Das ultimative Ziel dieses Layers ist, dem Entwickler die Garantie zu bieten, dass alle Fehler, die ihren Ursprung unterhalb dieser Schicht haben, verlässlich erkannt werden. Die Anwendung wird davon mittels Signalen in Kenntnis gesetzt und kann das System in einen sicheren Zustand bringen, um Gefahrensituationen zu vermeiden. Dieser End-to-End-Ansatz überprüft, ob ein geliefertes Ergebnis plausibel im Sinne einer Spezifikation ist. Um diesen allgemeinen Anspruch weiter zu führen, setzt die Schicht auf dem Portable Operating System Interface auf. Zusät...

Diplomarbeitsposter Perschl Christian

Christian Perschl

Diplomstudium Informatik
Abstract:

Mobiler Roboter; Roboterfußball, Bewegungssteuerung, PID-Regler

Diplomarbeitsposter Sommer Günther

Günther Sommer

Wirtschaftsinformatik
Abstract:

Die Technologie „Voice over IP“ (kurz VoIP) ermöglicht es, Sprache über IP-Netzwerke statt über verbindungsorientierte Sprachnetzwerke der Telekom-Unternehmen zu transportieren. Ein spezielles Augenmerk wird in dieser Arbeit auf die Integration von Funknetzen und deren Besonderheiten gelegt. Dabei wird nicht die Übertragung von VoIP im Funkkanal selbst, sondern der Transport von Sprachdaten für Funkgespräche zu ein oder mehreren Sendestationen innerhalb eines Netzwerks dargestellt. Es werden auch Technologien für Bandbreitenmanagement von IP beschrieben. Mit den dargestellten Technologien wie Multicast, SIP, RTP und einem auf DSCP aufsetzenden QoS-System wird eine mögliche Realisierung eines IP-basierten Sprachvermittlungssystems für ein Funksystem mit mehreren Standorten dargestellt. Um bestehende Sprachnetzwerke über IP-Netzwerke zu verbinden, gibt es mehrere Lösungsansätze wie Tunnelung oder Umsetzung. Diese können mittels spezieller Hardware, Standardprozessoren oder Standardprozessoren plus digitale Signalprozessoren erfolgen.Einige Lösungen ausgewählter Hersteller werden präsentiert. Im letzten Teil der Arbeit wird eine auf Spezialhardware aufsetzende Umsetzungslösung des Herstellers Kallastra auf Jitter und Konvertierungszeit untersucht. Es zeigt sich, dass diese Hardware unabhängig von der Anzahl der Kanäle in der Lage ist, die Signale in kürzester Zeit und mit großer Regelmäßigkeit umzusetzen

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

(vor 2010) E183/2 - Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Blauensteiner Philipp

Philipp Blauensteiner

Diplomstudium Informatik
Abstract:

Im Rahmen dieser Diplomarbeit werden Verfahren zur Verwendung der Farbinformation im Bereich der Bewegungssegmentierung und Probleme, die bei deren Anwendung auftreten können, herausgearbeitet. Desweiteren wird ein neuer Ansatz erarbeitet, wie Farbinformationen für Hintergrundmodellierung und Schattenunterdrückung ausgenützt werden können. Dieses Verfahren basiert auf dem Improved Hue, Luminance and Saturation Farbraum, in dem die Farbinformation in Form von 3D-Polarkoordinaten dargestellt werden und der garantiert, dass die Sättigungswerte unabhängig von der Funktion zur Berechnung der Helligkeit berechnet werden. Um der Tatsache gerecht zu werden, dass die Zuverlässigkeit der Farbwerte mit sinkender Sättigung fällt, kommen Methoden der sogenannten Saturation Weighted Hue Statistics zur Anwendung, die diesen Zusammenhang modellieren. Die Vorzüge der präsentierten Methode werden anhand experimenteller Vergleiche mit Verfahren basierend auf Normalised RGB, c1c2c3 und HSV ausgearbeitet.

Diplomarbeitsposter Veigl Stephan

Stephan Veigl

Diplomstudium Informatik
Abstract:

Bei steigendem Verkehr und damit größerer Auslastung des Straßennetzes wird es für Verkehrsleitzentralen immer wichtiger, genaue Informationen über die aktuelle Verkehrslage zu erhalten. In dieser Arbeit wurde ein Bildverarbeitungssystem beschrieben, mit dessen Hilfe verkehrsrelevante Daten aus den Videos von statischen Verkehrskameras ermittelt werden können, und zwar direkt vor Ort, mittels Embedded Systems. Zuerst wurden verschiedene Hintergrundalgorithmen beschrieben und verglichen, wobei der Approximated Median Algorithmus als der für die Anwendung geeignetste ausgewählt wurde. Um Fehler im Hintergrundmodell durch bewegte Fahrzeuge zu vermeiden, wurden eine selektive Hintergrundaktualisierung und eine globale Helligkeitsanpassung des Hintergrundmodells implementiert. Das Trackingmodul beruht auf einem histogrammbasierten Mean-Shift Algorithmus, der für die Implementierung auf einem DSP adaptiert wurde (Fixpunktarithmetik, vereinfachte Gewichtsfunktion, minimaler Bhattacharyya Koeffizient und Subpixel Skalierung). Die Ergebnisse des Mean-Shift Trackers werden mit den Blobs der Vordergrundmaske aus dem Hintergrundmodell korreliert. Die beschriebenen Module wurden zu einem Gesamtsystem integriert, das sowohl auf einem PC als auch auf einem DSP lauffähig ist. In der abschließenden Evaluierung wurde das Gesamtsystem sowohl mittels synthetisch erzeugter Testsequenzen als auch Videos von Tunnelkameras und Freilandautobahnen getestet. Somit konnte gezeigt werden, dass Bildverarbeitung zur Fahrzeugverfolgung mit den beschriebenen Methoden, unter bestimmten Bedingungen, auch auf Embedded Systems möglich ist. Eine der wesentlichsten Bedingungen dabei ist, dass eine gute Objektinitialisierung durchgeführt werden kann.