EPILOG Wintersemester 2007

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Diplomarbeitsposter Fortner Raoul

Raoul Fortner

Wirtschaftsinformatik
Abstract:

Software-Projektmanagement / Requirements Engineering / Anforderungsmanagement / Anforderungsrisiken / Geschäftsanforderungen / Unbeständige Anforderungen / Stakeholder / Zielkonflikte

Diplomarbeitsposter Leeb Klemens

Klemens Leeb

Masterstudium Medizinische Informatik
Abstract:

Elektronische Patientenakten (EPAs) bzw. Electronic Health Records (EHRs) und e-Health sind Schlagworte, die in letzter Zeit immer öfter in den Medien und im Gesundheitswesen kursieren. Landesweite Systeme, die EPAs für jeden einzelnen Bürger/jede einzelne Bürgerin speichern und verwalten, werden derzeit weltweit entwickelt und sollen in naher Zukunft auch in Deutschland und Österreich flächendeckend verfügbar sein. Diese Arbeit befasst sich mit der Konzeptionierung einer elektronischen Patientenakte namens LISAME (Liber salutis meae - Mein Gesundheitsbuch). Der Fokus liegt dabei insbesondere auf dem Einsatz in Forschung und Lehre an der TU-Wien. Mit LISAME soll es möglich sein, die vielen offenen Fragen in Bezug auf EPA-Systeme zu diskutieren und praktisch zu erproben. Vielfältige Forschungsbereiche wie die semantische Datenrepräsentation, User-Interface-Design, Softwarequalitätssicherung und Telematik bis hin zu hochverfügbaren Netzwerken sind dabei von Bedeutung. Im Anschluss an eine notwendige Begriffsbestimmung und Einführung in die relevanten Standards und Normen werden bereits realisierte Projekte in Deutschland und Österreich hinsichtlich ihres Zwecks und ihrer Funktionsweise analysiert. Nach Bestimmung der Funktionen und der involvierten Akteure werden darauf aufbauend use case-Diagramme aller Anwendungsfälle dargestellt. Abschließend wird ein Ausblick auf mögliche Weiterentwicklungen und deren Einsatz in der Praxis gegeben. Diese Masterarbeit definiert den Funktionsumfang der EPA und beschreibt detailliert alle notwendigen Anwendungsfälle in UML-Notation. Sie ist Teil des Gesamtprojekts LISAME, im Rahmen dessen weitere Arbeiten in Bezug auf Architektur und Realisierung des Systems folgen.

Diplomarbeitsposter Markaritzer Christoph

Christoph Markaritzer

Masterstudium Business Informatics
Abstract:

"E-Government" / "E-Business" / "Elektronische Zustellung" / "kommerzielle elektronische Zustellung"

Diplomarbeitsposter Nentwich Florian

Florian Nentwich

Diplomstudium Informatik
Abstract:

Keine Angaben

Diplomarbeitsposter Ortmann Johannes

Johannes Ortmann

Masterstudium Business Informatics
Abstract:

Bei der Entwicklung von Software kommt dem Usability Engineering und hier insbesondere dem User Centered Design Ansatz zentrale Bedeutung zu. Dabei stellt die heuristische Evaluierung die am häufigsten verwendete Inspektionsmethode dar, da sie von den frühen Stadien der Entwicklung bis hin zum fertigen Produkt angewendet werden kann, und somit besonders kosteneffizient ist. Bei einer heuristischen Evaluierung testen mehrere EvaluatorInnen ein Interface, und beurteilen dessen Kompatibilität mit zuvor festgelegten Usability Prinzipien (Heuristiken). Im Rahmen der vorliegenden Magisterarbeit wurde ein Tool entwickelt, das Usability-ExpertInnen bei der heuristischen Evaluierung von User Interfaces unterstützt. Das entwickelte Tool erfüllt zwei Funktionen: Einerseits dient es als zentrale Informationsplattform bei heuristischen Evaluierungen, andererseits beschleunigt es administrative Abläufe. Implementiert wurde diese Webapplikation in PHP 4 unter Verwendung von HTML 4.01 und CSS, sowie einer relationalen Datenbank. Die Funktionen des Tools unterstützen alle Aspekte der heuristischen Evaluierung und ermöglichen es den EvaluatorInnen, ein Projekt gemeinschaftlich im Internet zu evaluieren. Der Einsatz des Tools ist allerdings nicht nur auf das Web beschränkt, sondern kann auch als Intranetlösung eingesetzt werden. Es dient dabei zur zentralisierten Speicherung, erleichterten Auswertung und administrativen Unterstützung der ExpertInnen, welche die heuristische Evaluierung durchführen. In Summe zeichnet sich das Tool vor allem durch die schnelle und effiziente Dokumentation von Usability Problemen aus, wodurch die Effektivität der Problemfindung signifikant gesteigert wird. Vor Abschluss der Implementierung wurden zwei Evaluierungsverfahren, ein Software Quality Test und danach ein User Acceptance Test, angewandt und deren Resultate umgesetzt. Das hier entwickelte Webtool erfüllt somit alle gestellten Anforderungen und trägt maßgeblich zu einer zeit- und kosteneffizien...

Diplomarbeitsposter Stamminger Andreas

Andreas Stamminger

Masterstudium Software Engineering & Internet Computing
Abstract:

Anti-Spyware-Software stützt sich im Allgemeinen auf Signaturen von bekannten Spywareprogrammen, um Bedrohungen auf dem Computer des Benutzers aufspüren zu können. Sie kann jedoch keine unbekannten Schädlinge erkennen, weshalb es besonders wichtig ist, die Signaturen der Software regelmäßig zu aktualisieren. Dies stellt eine große Herausforderung für die Hersteller von Anti-Spyware-Software da, da es eine aufwändige und zeitkritische Aufgabe ist, neue Bedrohungen im Web zu lokalisieren und dafür geeignete Signaturen an den User rechtzeitig weiterzureichen. Um die Aufgabe des Analysten zu erleichtern, stellen wir ein System vor, das alle Schritte, nämlich das Auffinden, die Installation und die Analyse von Schädlingen, vollautomatisch bewerkstelligt. Wir konzentrieren uns dabei auf Spyware in Form von Plugins für den Internet Explorer, da sie eine besonders beliebte Technik zur Weitergabe von Informationen an Dritte darstellen. Zur Sammlung von Programmen verwenden wir einen Web-Crawler. Diese reichen wir anschließend an Honeypotclients zur Installation innerhalb eines emulierten Systems weiter. Danach simulieren wir das Surfen eines Benutzers im Web und beobachten dabei das Verhalten des zu prüfenden Programms. Dazu setzen wir eine Taint-Analyse ein, die es erlaubt, die Bewegung von sensiblen Daten innerhalb des betroffenen Systems auf Hardwareebene zu verfolgen. Um unsere Resultate bewerten zu können, vergleichen wir sie mit den Ergebnissen des signaturbasierten Anti-Spyware-Programms Ad-Aware. Nach fast 12 Millionen gesammelter URLs konnten wir 203 Programme ausmachen, für die Ad-Aware keine Warnungen erzeugt hat. Das beweist den Wert unseres Ansatzes und rechtfertigt die dynamische Analyse als wichtige Ergänzung zur signaturbasierten Technik.

Diplomarbeitsposter Szydlowski Martin

Martin Szydlowski

Diplomstudium Informatik
Abstract:

Das Web ist zu einem unerlässlichen Teil unseres Lebens geworden. Webapplikationen sind unzweifelhaft die vorherrschende Methode um Onlinedienste zu nutzen. Jeden Tag verwenden Millionen Benutzer das Web um einzukaufen, Bankgeschäfte abzuwickeln, Informationen zu suchen und zu kommunizieren. Obwohl das Web für die Benutzer den Komfort bietet, jederzeit und überall an Informationen zu kommen und Dienste zu nutzen, ist es gleichzeitig das Ziel vieler böswilliger Menschen, die sich leichten Profit von Angriffen auf ahnungslose Benutzer erwarten. In den letzten Jahren hat die Anzahl webbasierter Angriffe stark zugenommen, was die Wichtigkeit von Techniken und Werkzeugen zur Erhöhung der Sicherheit im Web unterstreicht. Zum Beispiel sind Banken, die ihre Dienste im Web anbieten, ein primäres Ziel von Phishingattacken. Weiters gab es viele Pressemeldungen über den Diebstahl von Kreditkartendaten von Millionen von Benutzern. Ein wichtiges Forschungsproblem im Bereich der Websichertheit ist, wie man einem Benutzer auf einer unsicheren Platform (also einem Computer, der mit bösartigen Programmen infiziert ist) die sichere Übermittlung von Daten an eine Webapplikation gewährleistet. Die bisher vorgeschlagenen Lösungen benötigen in den meisten Fällen zusätzliche (und oft teure) Hardware, zum Beispiel eine Chipkarte und ein entsprechendes Lesegerät. In dieser Diplomarbeit besprechen wir Angriffe auf Webapplikationen, die über den Computer eines Benutzers ausgeführt werden können, zum Beispiel mittels eines Trojanischen Pferdes. Wir haben aktuelle Sicherheitslösungen auf Webseiten von verschiedenen Banken untersucht und präsentieren die Schwächen dieser Lösungen. Weiters stellen wir zwei neue Möglichkeiten vor, wie sichere Eingabe in Webapplikationen realisiert werden kann. Wir haben in kleinem Umfang eine Benutzerstudie durchgeführt, um zu überprüfen ob unsere vorgeschlagenen Lösungen praktikabel sind. Da unsere Abhängigkeit vom World Wide Web weiterhin steigt, erwarten wir,...

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Christian Enzi, Florian Havlicek, Balint andras Hegedüs, Stephan Herzog, Ta'id Holmes, Jürgen Langthaler, Philipp Wolfgang Leitner, Christian Moser, Ernst Oberortner, Anton heinrich Weber
Diplomarbeitsposter Neustifter Jürgen

Jürgen Neustifter

Masterstudium Informatikmanagement
Abstract:

Keine Angaben

Diplomarbeitsposter Sigmund Thomas

Thomas Sigmund

Diplomstudium Informatik
Abstract:

Die vorliegende Diplomarbeit analysiert den Einfluss von evolutionären Aktivitäten, wie Refactoring, um das Auftreten von Softwarefehlern in naher Zukunft vorherzusagen. Die Verbesserung der Softwarequalität ist der Schlüssel, um die Fehlerdisposition von Software zu reduzieren. In diesem Zusammenhang sind nicht-funktionale Anforderungen, wie Verständlichkeit und Wartbarkeit, von größter Wichtigkeit. Aber wie können diese Erfordernisse realisiert werden? Eine Möglichkeit besteht darin Refactorings anzuwenden, welche das Design von vorhandenem Sourcecode betreffen, ohne das Verhalten nach Außen zu beeinflussen. Im Rahmen einer Fallstudie mittels fünf Open-Source Projekten verwenden wir Eigenschaften der Softwareevolution, um mittelfristige Fehler vorherzusagen. Wir verwenden Versionierungs- und Bugtracking-Systeme, um 110 Datamining Features zu extrahieren. Diese Features lassen sich in solche, mit und ohne Bezug zu Refactoring einteilen, um Softwarefehler in Zeitabschnitten von sechs Monaten vorherzusagen. Unser Ansatz umfasst Softwarecharakteristika, wie Größen- und Komplexitätsmaße, relationale Aspekte, Zeitbedingungen, oder teambezogene Aspekte. Diese Informationen dienen als Input für Klassifikationsalgorithmen, die Vorhersagemodelle für Softwarefehler erzeugen. Wir haben herausgefunden, dass Features mit und ohne Refactoring-Bezug zu Vorhersagemodellen von hoher Qualität führen. Weiters haben wir entdeckt, dass Refactoring auf eine bestimmte Art mit anderen Softwareaktivitäten assoziiert sein sollte, um das Auftreten von Softwarefehlern zu reduzieren. Zusätzlich zeigen wir, dass gewisse Teilmengen von Refactoring Features von größter Wichtigkeit für die Vorhersagemodelle jedes einzelnen Projekts sind. Abschließend zeigten autorenbezogene Aspekte variable Ergebnisse, dennoch konnten wir mehrere interessante Erkenntnisse gewinnen.

Diplomarbeitsposter Spiegel Stefan

Stefan Spiegel

Diplomstudium Informatik
Abstract:

Diese Diplomarbeit stellt Probleme und Lösungen vor, um einen verteilten und dezentralisierten Tupel Space (DTSpace), basierend auf einem Peer-to-Peer (P2P) Netzwerk, zu entwickeln. Das Tupel Space (TS) Modell wurde erstmals von David Gelernter im Jahre 1985 beschrieben. Der TS stellt Kommunikations- und Synchronisations- mechanismen für verteilte Applikationen zur Verfügung. Während der letzten zwei Jahrzehnte wurden viele Ansätze für den TS entwickelt. Viele davon haben einen zentralisierten Ansatz, wie z.B. JavaSpaces von Sun und TSpaces von IBM. Ein Beispiel für einen verteilten TS ist SwarmLinda. Dieser Ansatz imitiert das Verhalten eines natürlichen Schwarms, um Datensätze, so genannte Tupel, zu speichern und wieder zu finden (z.B. wie eine Ameisenkolonie). Der DTSpace Ansatz in dieser Diplomarbeit ist in drei Bereiche unterteilt: (1) TS, (2) P2P und (3) verteilter Mutual Exclusion (wechselseitiger Ausschluss). Diese werden in der Diplomarbeit detailliert behandelt. Die drei Operationen out, in und read, welche ursprünglich von David Gelernter beschrieben wurden, werden vom DTSpace Ansatz unterstützt. Ein verteilter Mutual Exclusion Algorithmus wird verwendet, um zu gewährleisten, dass nur ein Prozess zur gleichen Zeit auf ein Tupel zugreifen kann.

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Eibegger Mandana

Mandana Eibegger

Individuelles Diplomstudium New Media Design and Engineering
Abstract:

Die mathematische Logik bildet die Grundlage für die unterschiedlichsten Problemstellungen. Die oftmals sehr formale Präsentation der Inhalte und die linearen Lernstrukturen der herkömmlichen Lehrmittel führen jedoch oft dazu, dass die grundlegenden Konzepte für viele Studierende oftmals nicht auf Anhieb verständlich sind. Da E-Learning zunehmend ein fixer Bestandteil der Aus- und Weiterbildung ist und das Internet heutzutage das wichtigste Informationsmedium ist, beschäftigt sich mit der Umsetzung eines webbasierten, intuitiven Logik-Lehrbuches (E-Book) für Schüler, Studenten und Interessierte, in dem die Grundkonzepte der Logik erklärt und anhand der Aussagenlogik vertieft werden. Das Verständnis der Inhalte verlangt weder besondere Vorkenntnisse, noch ein ausgeprägtes formal-theoretisches Können. Die inhaltliche Aufbereitung führt Schritt für Schritt mit vielen intuitiven Beispielen in die Welt der Logik ein. Es werden lineare und interaktive Lernstrukturen zur Verfügung gestellt - so können etwa beliebige zwei Kapitel nebeneinander dargestellt werden. Einzelne Methoden der Aussagenlogik, von der Erstellung von Wahrheitstabellen und Formelbäumen bis zur Anwendung des Tableaukalküls, können mit interaktiven Übungsbeispielen an vorgegebenen und selber eingegebenen Formeln geübt werden. Selbstverständlich hat der Benutzer die Möglichkeit, auch unfertig gelöste Beispiele zu prüfen oder sich den nächsten Lösungsschritt anzeigen zu lassen und erhält Feedback bei Fehlern. Um dies zu ermöglichen, wurden entsprechende Beweisprozeduren innerhalb des E-Books implementiert. Bei der Umsetzung wurde auf die Richtlinien für die Gebrauchstauglichkeit und die WCAG 1.0 geachtet. Mit dem E-Book wurde ein Framework implementiert, das leicht wartbar ist und auf Grund der guten Suchmaschinenergebnisse, der Gebrauchstauglichkeit und der hohen Zugänglichkeit eine solide Basis für mögliche Erweiterungen bietet. Die Umsetzung des E-Books ist unter http://www.logic-rulez.net zu finden.

Diplomarbeitsposter Seidelmann Patrick

Patrick Seidelmann

Diplomstudium Informatik
Abstract:

Im Zuge der Diplomarbeit werden 3 nichtklassische Logiken betrachtet: intuitionistische Logik, Modallogik, die intuitionisische Modallogik HK[] die in "Milan Bozic und Kosta Dosen, Models for normal intuitionistic logics. Studia Logica, 43:217-245, 1984" zum ersten Mal vorgestellt wurde. Der Korrektheits- und Vollständigkeitsbeweis für intuitionistische Logik erfolgt für die üblichen intuitionistischen Kripke-Modelle sowohl für ein Hilbert-Typ Kalkül als auch für ein Kalkül des natürlichen Schließens. Hier wird mittels eines Simulationsresultats, der Korrektheits- und Vollständigkeitsbeweis für beide Systeme auf einmal erbracht. Bei der Betrachtung von Modallogik wird die Korrektheit und Vollständigkeit der Logiken K, T, D, S4 und S5 formalisiert durch Hilbert-Typ Kalküle für die üblichen modalen Kripke Modelle vorgestellt. Im Zuge der Untersuchungen der intuitionistischen Modallogik HK[] wurden einige schwere Lücken in der Beweisführung des Vollständigkeitsbeweises aufgezeigt. Ob HK[] überhaupt vollständig in Bezug zu den vorgestellten Kripke Modellen für intuitionistische Modallogik mit einem modalen operator [] ist, bleibt eine offene Frage.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter David Robert

Robert David

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Magisterarbeit befasst sich mit dem Reengineering von Legacy Systemen zu modernen Web-Anwendungen. Aufgrund der wachsenden Verbreitung der Web-Technologien und der damit verbundenen Vorteile werden neue Systeme zunehmend als Web-Anwendungen entwickelt. Ihnen gegenüber stehen veraltete Systeme, Legacy Systeme genannt, die erfolgreich Wartungs- und Erweiterungsversuchen widerstehen. In dieser Arbeit werden die Möglichkeiten untersucht, solche Altsysteme zu modernen Web-Anwendungen zu transformieren. Dazu wird zuerst ein Web-Reengineering Prozess definiert, der auf den bekannten Reengineering-Aktivitäten basiert und diese für das Zielsystem Web-Anwendung konkretisiert. Im Vordergrund steht dabei die architekturelle Transformation. Das Ausgangssystem soll so verändert werden, dass die Architektur der Web-Anwendung bereits dort berücksichtigt wird. Für jeden Teilschritt des Prozesses werden bekannte Reengineering-Methoden vorgestellt, die sich für die praktische Durchführung eignen. Das Ergebnis ist ein durchgehender Prozess, der für das Reengineering zu Web-Anwendungen als Basis verwendet werden kann. Danach wird der Prozess im Rahmen einer Fallstudie angewendet, bei der ein Altsystem zu einer funktional äquivalenten Web-Anwendung transformiert wird. Dabei zeigt sich, dass eine Unterscheidung von physischer und logischer Architektur und die Repräsentation beider im Ausgangssystem strukturelle Vorteile für das Reengineering bringt. Mit den Ergebnissen der Durchführung soll der architekturelle Ansatz des Prozesses analysiert werden, um weitere Erkenntnisse über das Reengineering zu Web-Anwendungen zu erlangen.

Diplomarbeitsposter Jordan Alexander

Alexander Jordan

Masterstudium Software Engineering & Internet Computing
Abstract:

Java / Virtuelle Maschine / Übersetzer / SPARC

Diplomarbeitsposter Lezuo Roland

Roland Lezuo

Masterstudium Technische Informatik
Abstract:

Java, just-in-time compiler, Codegeneratoren, M68K, POWERPC64

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Braumann Andreas

Andreas Braumann

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Magisterarbeit beschreibt ein Softwaresystem, das eine Liste von ungenauen GPS Positionen, die von GPS Empfängern in mehreren sich gleichzeitig bewegenden Objekten gemessen wurden, auf ein Straßennetzwerk korrigiert. Dieser Vorgang heißt Map-Matching. Durch die ermöglichte Aufteilung der Daten und Parallelisierung des Ablaufes wird sichergestellt, dass auch gesteigerte Anforderungen in der Zukunft erfüllt werden können. Zuerst wird eine generelle Einleitung in das Thema gegeben. Es wird das GPS System vorgestellt, welche Faktoren es beim Objekttracking generell und beim Tracking mit GPS im speziellen gibt, welche Anforderungen an das Projekt bestanden und eine formale Definition der Problemstellung gegeben. Eine Übersicht über existierende Literatur spiegelt den aktuellen Stand und jüngste Entwicklungen der Wissenschaft wider. Anschließend wird das Softwareframework mit seinen Komponenten und Kommunikations- kanälen vorgestellt und die Datenstrukturen und Algorithmen beschrieben, mit denen es arbeitet. Testergebnisse bezüglich Performance und Genauigkeit und ein kurzer Ausblick in die Zukunft schließen diese Arbeit ab.

Diplomarbeitsposter Neuner Philipp

Philipp Neuner

Diplomstudium Informatik
Abstract:

Diese Diplomarbeit behandelt einen auf Lagrange-Relaxierung beruhenden, heuristischen Ansatz zum String Barcoding Problem (SBP). Dabei handelt es sich um ein kombinatorisches Optimierungsproblem, das im Kern einen Spezialfall des Set Cover Problems (SCP) darstellt und wie dieses NP-schwer ist. Es existieren zahlreichen Anwendungen mit biologischem und medizinischem Hintergrund. Ausgehend von einer Menge von bekannten Sequenzen über einem beliebigen Alphabet, beispielsweise DNA, suchen wir eine Menge kurzer Teilsequenzen, so genannte Probes, so dass wir in der Lage sind, eine unbekannte Sequenz (Sample) eindeutig als eine der bekannten zu identifizieren, indem wir jene Probes bestimmen, welche als Teilsequenzen im Sample vorkommen. Das Problem umfasst zwei wesentliche Aspekte: die Bestimmung aller möglichen Probes und die Auswahl einer geeigneten Teilmenge mit minimaler Kardinalität. Das Problem wurde unter verschiedenen Namen behandelt und in dieser Form 2002 von Rash und Gusfield vorgestellt. Ihr Lösungsansatz liefert optimale Lösungen und beruht auf Integer Linear Programming sowie der Verwendung von Suffix Trees zur Generierung einer vollständigen, nicht-redundanten Menge von Probes. Wir haben mehrere SBP und SCP Ansätze untersucht. Eine der erfolgreichsten SCP Heuristiken, basierend auf dem Prinzip der Lagrange-Relaxierung, wurde 1999 von Caprara et al. publiziert. Wir haben den Algorithmus adaptiert, um herauszufinden, ob er, angewandt auf das strukturell sehr ähnliche SBP, Ergebnisse vergleichbarer Qualität liefert. Obwohl unsere Resultate diese Annahme nicht generell stützen, zeigt die Heuristik vor allem bei sehr komplexen Instanzen ihre Stärke und generiert hier wesentlich bessere Lösungen als einfachere Heuristiken.

Arbeitsbereich (vor 2018) Computergraphik

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Robert Fizimayer, Paul Guerrero, Martin Haidacher, Gregor Lehninger, Markus Lipp, Jürgen Platzer, Benjamin Roch
Diplomarbeitsposter Bauchinger Matthias

Matthias Bauchinger

Diplomstudium Informatik
Abstract:

Die Entwicklung von real-time rendering Programmen wurde durch die Anzahl und Komplexität der benötigten Techniken und Algorithmen zu einer der schwierigsten Software-Engineering Gebiete. Diese Software-Projekte haben gemein, dass sie die darzustellenden Daten strukturiert im Hauptspeicher anordnen , für den Rendering-Prozess effizient abarbeiten und an die Grafikkarte weiterleiten müssen. Um diese wiederkehrenden, komplexen Algorithmen nicht mit jedem Projekt neu entwickeln zu müssen, werden sogenannte Rendering Engines verwendet, die genau diese Aufgaben übernehmen. In dieser Diplomarbeit werden die Konzepte und Designentscheidungen beschrieben, die der speziell für diese Arbeit entwickelten Rendering Engine zugrunde liegen. Diese Arbeit befasst sich detailliert mit der Schnittstelle zur Grafikkarte, einem neuartigen effect framework und den implementierten Graphenstrukturen um die Daten effizient zu traversieren.

Diplomarbeitsposter Kehrer Johannes

Johannes Kehrer

Masterstudium Visual Computing
Abstract:

In dieser Arbeit wird der CurveView vorgestellt, eine Möglichkeit zur interaktiven visuellen Analyse von multidimensionalen und großen Datensätzen mit Zeitreihen. Ein spezieller Ansatz zur interaktiven Datenvisualisierung wird vorgestellt, außerdem so genannte Brushing-Techniken, welche es dem/der BenutzerIn erlauben, interessante Merkmale (engl. features) direkt am Bildschirm zu selektieren (z.B. mit der Maus). Der vorgestellte Ansatz ist in das bestehende SimVis System integriert, eine Anwendung zur visuellen Analyse von zeitabhängigen Simulationsdaten, wobei unterschiedliche Darstellungsarten (engl. views) zur Verfügen stehen, die untereinander verlinkt sind. Die Zeitreihen werden mittels Fokus+Kontext Visualisierung dargestellt, d.h. interessante und wichtige Datenmengen (Fokus) sind visuell hervorgehoben, wohingegen der Rest (Kontext) in abgeschwächter Form dargestellt wird. Durch die Verwendung von Transferfunktionen können z.B. generelle Datentrends sowie Strukturen und Muster in dichten Bildschirmbereichen verstärkt werden. Außerdem können Sonderfälle hervorgehoben werden (z.B. einzelne Zeitreihen, die sich vom Rest unterscheiden). Durch die Verwendung von Binning-Techniken wird die Datenmengen reduziert, wobei die Bedeutung (Charakteristik) erhalten bleibt. Das erleichtert die interaktive Darstellung der Information. Selektionstechniken erlauben die interaktive Analyse der dargestellten Information. So können komplexe zeitabhängige Merkmale klassifiziert werden, wobei so genannte fuzzy sets verwendet werden. Im CurveView stehen Brushes zur Verfügung, die Zeitreihen aufgrund ihrer Ähnlichkeit zu einem festgelegten Muster klassifizieren -- dieses kann vom Benutzer direkt am Bildschirm als Linienzug gezeichnet werden. Außerdem gibt es so genannte Time Step Brushes mit denen Zeitreihen selektiert werden, die durch eine bestimmtes Intervall an einem Zeitschritt laufen.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Bruckner Gerhard

Gerhard Bruckner

Masterstudium Medieninformatik
Abstract:

Die Informatik zeigt als relativ junge Wissenschaft- im Gegensatz zu etablierten Disziplinen - ein starkes Bedürfnis nach Selbstreflexion und Positionierungsdiskussion. In der vorliegenden Arbeit entwickle ich eine Orientierungshilfe für die Diskussionen innerhalb der Informatik der vergangenen 50 Jahre, indem ich versuche, Verbindungen zu Ansätzen außerhalb der Informatik herzustellen, die das Phänomen Wissenschaft zu fassen versuchen: Wissenschaftstheorie, Soziologie und die sogenannten Science and Technology Studies. Dafür stelle ich, anknüpfend an eine kurze Vorstellung der allgemeinen metawissenschaftlichen Konzepte, eine Auswahl von Standpunkten, Konzepten und Projekten innerhalb der Informatik vor. Dabei wird deutlich, dass der beobachtbare Trend im Selbstverständnis der Informatik - die anfangs technische und betont formale Sichtweise wird nach und nach ergänzt durch eine die soziale Natur menschlicher Tätigkeit betonende Perspektive - sich in einen generellen Paradigmenwechsel in der wissenschaftlichen Weltsicht bzw. ebenso in der verwissenschaftlichten westlichen Gesellschaft einfügt und in der Literatur mit dem Begriff Postmoderne bezeichnet wird. Präskriptive und sich rein auf Theorie stützende Konzepte werden von beschreibenden, qualitativen und empirisch-orientierten Ansätzen herausgefordert. In der Informatik selbst manifestiert sich dieser Trend im zunehmenden Verständnis von Softwareentwicklung als Designprozess oder sozialer Prozess sowie von der Computerwissenschaft selbst bzw. ihrem primären Ausfluss - der Informations- und Kommunikationstechnologien - als ein mit der Gesellschaft verflochtenes und somit soziales Phänomen.

Diplomarbeitsposter Fischer Leonhard

Leonhard Fischer

Masterstudium Medieninformatik
Abstract:

Diese Masterarbeit befasst sich mit benutzerzentrierten Methoden des Softwaredesigns in Theorie und Praxis. Die frühe Miteinbeziehung der BenutzerInnen und Berücksichtigung deren Bedürfnisse ist grundlegend für die Entwicklung von ergonimischer Software, die nicht nur funktionell, sondern auch benutzbar ist. Es werden Konzepte des benutzerorientierten Softwaredesgin vorgestellt und anschließend in einem von mir für einen Zeitungsverlag durchgeführten Projekt angewandt. Ziel dieses Projekts ist die Konzipierung eines Groupware Systems zur Unterstützung von Kommunikation und Zusammenarbeit zwischen unterschiedlichen örtlich getrennten Abteilungen.

Diplomarbeitsposter Idziorek Michal

Michal Idziorek

Masterstudium Medieninformatik
Abstract:

Trotz der bestehenden technischen Möglichkeiten, wurden nur sehr wenige Versuche unternommen die Qualitäten von Brett- und Videospielen in einem hybriden System zu verbinden. Diese beschränken sich auch fast ausschlieÿlich auf den universitären Bereich und es existiert derzeit keine ernstzunehmende, kommerzielle Spielplattform dieser Art. Beide Spielarten scheinen, obwohl ein Kombinationsversuch, aufgrund der Bereicherung des Spieleerlebnisses, nahe liegend wäre, ihren traditionellen Domänen treu zu bleiben. Während Videospiele vor allem mit Graphik, Sound, detaillierten Realitätsmodellen und der Möglichkeit über das Internet gegen Spieler aus aller Welt anzutreten, beeindrucken, sind dieselben nicht im geringsten in der Lage, mit primitivsten Brettspielen, wie Mensch ärgere dich nicht mitzuhalten, wenn es um die sozialen, zwischenmenschlichen Spielaspekte geht. Diese Arbeit beschäftigt sich nun mit den Möglichkeiten und dem Potenzial des Einsatzes von greifbaren Benutzerschnittstellen, so genannten Tangible User Interfaces im spielerischen Bereich. Ein Konzept für ein System zur Kombination der beiden Spielarten wird vorgestellt, dessen Notwendigkeit und Sinnhaftigkeit anhand qualitativer Studien, vorwiegend in Form von Interviews, unter potenziellen Spielern begründet wird. Darüber hinaus wird auch ein, im Rahmen dieser Arbeit entstandenes, konkretes hybrides Spiel für den ColorTable (vom IGW Institut) präsentiert. Dabei können mehrere Spieler simultan auf einem virtuellen Spielfeld Grundstücke kaufen, Fabriken bauen und untereinander Handel betreiben. Bei dem vorgestellten Spiel läuft die Interaktion, im Gegensatz zu herkömmlichen Brettspielen, nicht rundenbasiert sondern in Echtzeit ab. Die Spieler können also jederzeit ins Spielgeschehen eingreifen, wobei die gesamte Interaktion mit dem System, über physische Spielsteine abläuft.

Diplomarbeitsposter Zrnka Susanne

Susanne Zrnka

Masterstudium Medieninformatik
Abstract:

e-Learning als neues Medium, das heutzutage bereits vielfach eingesetzt wird, wird vor allem in der beruflichen Aus- und Weiterbildung aufgrund der ständig wachsenden Bedeutung von Wissen immer wichtiger. Für den Bildungssektor bedeutet dies neue Herausforderungen im Lehr- und Lernprozess sowie auch bei der Informationsaufbereitung und -weitergabe. Folgende Arbeit behandelt das Thema e-Learning in der universitären Lehre und beschäftigt sich in erster Linie mit Learning Management Systemen, kurz Lernplattformen. Nach einer grundlegenden Einführung in den Begriff wird auf die spezielle e-Learning Variante der Lernplattformen eingegangen und deren Eigenschaften, Kriterien und Anforderungen im Studium näher erläutert. Im Zuge dessen wird die Entwicklung dieser neuen Technologie in der Universität beleuchtet, ein Überblick über die momentane Situation in Österreich gegeben sowie einige Lernplattformen an Wiens Hochschulen vorgestellt. Den Schwerpunkt bildet schließlich die Untersuchung des Einsatzes einer Lernplattform an einer Universität anhand eines ausgewählten Projekts, in der die Fragestellung, ob und inwieweit e-Learning im Studium sinnvoll ist, beantwortet werden soll. Zu diesem Zweck wird versucht, das e-Learning System „Learn@WU“ der Wirtschaftsuniversität (WU) Wien als Musterbeispiel einer bereits erfolgreich eingesetzten Lernplattform zu beschreiben und mit Hilfe der vorgestellten Konzepte und Grundlagen zu analysieren. Mittels verschiedener qualitativer und quantitativer Methoden wie selbst durchgeführte Interviews und bereits vorhandener Statistiken, Erfahrungsberichten und Benutzerumfragen sollen die Nutzung, die Akzeptanz und die Zufriedenheit der HauptanwenderInnen dieser Technologie, der Studierenden der WU, aufgezeigt und belegt werden. In weiterer Folge soll geklärt werden, inwieweit sich die Benutzung des Systems bzw. der auf Learn@WU angebotenen Lerninhalte und -ressourcen auf den Lernerfolg der StudentInnen auswirkt.

Arbeitsbereich (vor 2018) Human Computer Interaction

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Marcus Erber, Andras Keri, Serpil Varol, Armin Wagner
Diplomarbeitsposter Witzmann Hannes

Hannes Witzmann

Masterstudium Visual Computing
Abstract:

Im Game Design und Game Research werden Graphik, Story, Gameplay und auch das Interface intensiv behandelt. Der Game Controller (in Form von Joypad oder Maus und Tastatur) wird bislang jedoch oft als gegeben hingenommen. Durch aktuelle Entwicklungen wie Eye Toy, Nintendo DS oder Wii wird sich dies in Zukunft ändern. Gestenbasierte Spielsteuerung erweitert die bisherigen Möglichkeiten um eine zusätzliche Interaktionsebene. Dadurch wird es im Game Design nun wichtiger, sich auch über geeignete Formen der Spielsteuerung Gedanken zu machen. Diese Diplomarbeit gibt einen Überblick über die bisherige Entwicklung der Game Controller und welche Ideen zur jeweiligen Entwicklung führten. Darauf aufbauend, befasst sie sich mit den Prinzipien des Game Designs, die bei gestenbasierter Steuerung eine Rolle spielen und den aktuellen Technologien, die dafür zu Verfügung stehen.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Walid Awad, Benjamin Böck, Jörg Doppelhofer, Thomas Eberhartl, Benedikt Eckhard, Robert Fischer, Marcel Fleisch, Thomas olabode Gyane, Christian Halper, Christian Hartl, Gökhan Ibis, Christoph Kocsisek, Andreas Liebig, Robert Neumayer, Jan Pichler, Christina Johanna Pöttler, Christoph Radl, Reza Rawassizadeh, Josef Schachinger, Franz Stimpfl, Gerhard Totz, Johannes Zettler
Diplomarbeitsposter Becker Christoph

Christoph Becker

Masterstudium Business Informatics
Abstract:

Ein großer Teil des kulturellen und wissenschaftlichen Erbes unserer Zeit ist nur in digitaler Form verfügbar. Die wachsende Heterogenität und Komplexität von digitalen Dateiformaten bewirken, dass die Aufgabe, diese Materialien aufzubewahren und auf zuverlässige Weise langfristig zugänglich zu machen, eine dringende Herausforderung darstellt. Digitale Langzeitarchivierung ist daher in den letzten Jahren zu einem aktiven Forschungsfeld geworden, und eine Anzahl verschiedener Lösungsansätze sind vorgeschlagen worden, um die Schwierigkeiten bei der langfristigen Archivierung von digitalen Objekten zu bewältigen. Diese Lösungen und Werkzeuge haben alle sehr spezifische Charakteristiken und Besonderheiten und unterscheiden sich signifikant in ihren Stärken und Schwächen. Das Testen und Evaluieren derartiger Lösungen ist daher eine komplexe Aufgabe. Verstärkt werden die Schwierigkeiten durch das Fehlen von Referenzwerten, mit denen die Messungen neuer Lösungen verglichen werden könnten. Die Gemeinschaft der betroffenen Institutionen und Forscher brauchen daher dringend einen Vergleichstest zur Evaluierung von Lösungen und Werkzeugen. Um konsistente, vergleichbare und verantwortliche Dokumentationen über die Charakteristiken, Stärken und Schwächen von Werkzeugen zu ermöglichen, ist eine kontrollierte Umgebung mit Benchmark-Daten notwendig. Mehrere zusammenhängende Initiativen befassen sich mit dieser Aufgabe. Der DELOS Digital Preservation Cluster arbeitet an Kriterien für einen Testdaten-Korpus; das Projekt PLANETS erstellt eine Test-Plattform, auf der Experimente in wohldefinierter und konsistenter Weise ausgeführt werden können, um vergleichbare Messdaten über die speziellen Eigenschaften von Werkzeugen und Diensten zu erhalten. Diese Arbeit stellt das funktionale Modell für ein derartiges System vor. Wir erläutern die Grundlagen digitaler Langzeitarchivierung, beschreiben aktuelle Initiativen und Lösungansätze und gehen auf die Probleme beim Testen und Bewerten ver...

Diplomarbeitsposter Glatz Georg

Georg Glatz

Masterstudium Software Engineering & Internet Computing
Abstract:

Im Bereich des IT Management sind kleine und mittlere Unternehmenen oft mit dem Problem konfrontiert, dass sie nur über wenige Informationen betreffend den eigenen Informationssicherheitsstatus verfügen. Entscheidungen die Informationssicherheit (IS) betreffend werden deswegen oft nur basierend auf unvollständiger Daten und subjektiven Meinungen getroffen. Diese Arbeit geht auf diese Problemstellung ein und beschreibt den Entwurf für ein Sicherheitsmetrikenprogramm für die Raiffeisen Informatik GmbH (R-IT), einem österreichischen IT Service Provider. Dieses Programm gibt den Verantwortlichen für IS im Unternehmen die Möglichkeit Informationen über den IS-Status zu erhalten, Verbesserungspotential im IS-Management zu identifizieren, IS-Investitionen vor dem Management zu rechtfertigen und letztendlich IS relevanten Input für die Balanced Scorecard zu erhalten. Aufbauend auf Erfahrungen mit Messungen in anderen Disziplinen wie zum Beispiel der Unternehmensführung oder dem Software Engineering und relevanten Standards und Richtlinien wird ein inkrementelles und iteratives Sicherheitsprogramm entworfen. Die wesentlichen Bestandteile dieses Programms sind die Metrikendefinition, Datensammlung, Reporting von Messergebnissen und die kontinuierliche Programmweiterentwicklung. Die Anwendung der Goal-Question-Metric Methode[BCR94] zur Definition qualitativer und quantitativer Sicherheitsmetriken ermöglicht die direkte Ableitung von Metriken von den IS Zielen des Unternehmens. Bei schrittweiser Implementierung des Sicherheitsmetrikenprogramms, entsprechend dem Reifegrad der IS Kontrollen und Prozeduren kann das Programm als wertvolles, kosteneffektives Werkzeug zur Entscheidungsunterstützung im IS-Management dienen.

Diplomarbeitsposter Grecu Andrei

Andrei Grecu

Intelligente Systeme
Abstract:

Keine Angaben

Diplomarbeitsposter Greger Stefan

Stefan Greger

Unterrichtsfach Informatik/Informatikmanagement
Abstract:

Ich habe in meiner Arbeit das Thema Kryptologie unter der didaktischen Sicht behandelt. Nach einer kurzen Begriffsklärung von Kryptologie habe ich mir als Hilfsmittel für die didaktische Umsetzung die Präsentationssoftware "Power Point" herangezogen. In übersichtlich gestalteten Folien bin ich dann näher auf das Thema Kryptologie eingegangen.

Diplomarbeitsposter Guttenbrunner Mark

Mark Guttenbrunner

Diplomstudium Informatik
Abstract:

Videospiele sind Teil unseres kulturellen Erbes. Durch die rasante Entwicklung von Computersystemen ändert sich die Art, wie Spiele aussehen und gespielt werden, ständig. Dass das öffentliche Interesse an der Videospielgeschichte groß ist, zeigen Ausstellungen, regelmäßig erscheinende Magazine und Berichte zu diesem Thema. Da die Originalsysteme und -medien jedoch nicht auf Dauer funktionstüch-tig bleiben und aufgrund proprietärer Hardware nicht beliebig reparierbar sind, müssen Wege gefunden werden, diese Spiele für zukünftige Generationen zu erhalten. Diese Arbeit untersucht Strategien zum Erhalten von Spielen für Videospielkonsolen. Zuerst wird der Leser in die Geschichte der Videospielkonsolen sowie in das Forschungsgebiet der Erhaltung digitaler Objekte eingeführt. Gebräuchliche Strategien im Bereich der Digital Preservation sowie Projekte zur Erhaltung interaktiver Kunst werden präsentiert. Da Emulation eine bereits weit verbreitete Methode ist, nicht mehr erhältliche Videospiele auf modernen Computern wiederherzustellen, wird auch ein Fokus auf Arbeiten aus diesem Bereich gelegt. Beim Archivieren von Spiele für Videospielkonsolen wird man mit unterschiedlichen Schwierigkeiten wie nicht zugänglicher Dokumentationen über die verwendete Hardware, das Sichern der Originalmedien auf besser archivierbare Speichermedien sowie gesetzlichen Rahmenbedingungen konfrontiert. Da bei Videospielen nicht nur die visuelle Präsentation, sondern auch das empfundene Spielerlebnis wichtig ist, ist die originalgetreue Steuerung ein gewichtiger Faktor. Der PLANETS Ansatz zum Planen von Digital Preservation Projekten wird verwendet, um für das fiktive Projekt einer digitalen Bibliothek eine Entscheidung für bestimmte Strategien zu evaluieren. Dazu werden für die präsentierten Videospielkonsolen einzelne Spiele ausgewählt und Anforderungen an die zu findende Lösung in Form eines hierarchischen Baums festgelegt. Die möglichen Alternativen werden ermittelt, eine Durchführbarkeitsent...

Diplomarbeitsposter Hoisl Bernhard

Bernhard Hoisl

Masterstudium Informatikmanagement
Abstract:

Online-Communities haben eines gemeinsam: Ihr Erfolg steht und fällt mit der Teilnahmefrequenz ihrer Benutzer. Für viele Online-Communities ist daher der Benutzermangel ein fundamentales Problem.In dieser Arbeit wird auf bestimmte Methoden der sozialen Belohnung eingegangen, welche darauf abzielen, Benutzer zu motivieren, in einemWiki aktiv teilzunehmen. In einer Online-Community basiert soziales Belohnen in den meisten Fällen auf das Hervorheben besonders aktiver Mitglieder. Geld kann dabei nicht als Motivator eingesetzt werden, sondern andere Faktoren wie Status, Macht, Ehre und Ruhm sind entscheidend. Es werden verschiedene Methoden der sozialen Belohnung vorgestellt, die die Zufriedenstellung dieser Bedürfnisse als Ziel haben und somit Vorteile für alle aktiven Benutzer eines Wikis bringen sollen.Weiters sind vier Methoden sozialer Belohnung in die Wiki Software MediaWiki implementiert worden. Diese vier Techniken beziehen sich auf benutzte Referenzen eines Artikels, Artikelbewertungen, Artikelbesuche und Benutzerempfehlungen. Unter anderem sind dabei die Kriterien sozialen Belohnens durch die Darstellung einer Rangliste von besonders aktiven Autoren erfüllt. Es wird dabei auf den der Berechnung zugrunde liegenden Algorithmus, auf den Implementierungsprozess und auf die Informationsvisualisierung der Ergebnisse der Entwicklung eingegangen.

Diplomarbeitsposter Knopp Veronika

Veronika Knopp

Masterstudium Informatikmanagement
Abstract:

Die vorliegende Arbeit diskutiert Konzepte virtueller Museen mit dem Ziel, den Mehrwert in der musealen Aufbereitung zu verdeutlichen. Wobei unterschiedliche Formen im Internet vorgestellt, und mittels ausgewählter Beispiele detailliert erörtert werden. Weiters wird Second Life, als neues Medium für virtuelle Museen, präsentiert. Hierbei soll verdeutlicht werden welche Möglichkeiten die virtuelle Welt Second Life in der musealen Aufbereitung bietet. Unterschiedliche Umsetzungen virtueller Museen, die sich aufgrund der Thematik, Präsentationsform oder auch in dem Einsatz von Second Life Instrumenten unterscheiden, werden beschrieben.

Diplomarbeitsposter Kohler Michael

Michael Kohler

Masterstudium Medizinische Informatik
Abstract:

Die weltweite Flut an Informationen erfordert Entwicklung von Tools, um Informationen zu filtern und zu komprimieren. Information Extraction (IE) ist ein Teilbereich von Natural Language Processing (NLP) und wird verwendet, um Informationen aus Texten zu extrahieren und eine Datenbank zu füllen. IE Systeme müssen jedoch auf eine bestimmte Domäne spezialisiert werden und nur dann sind sie in der Lage Texte von dieser Domäne zu verarbeiten. IE Systeme setzen sich unter anderem aus Terminologien, Ontologien und Vokabularen zusammen. Das UMLS System besteht aus vielen Wörterbüchern, Thesauri, Terminologien und Ontologien, die dargestellt werden durch SPECIALIST Lexicon, Metathesaurus und Semantic Network. Das UMLS ist eine gigantische Wissensbasis, welches eine Vielzahl von medizinischen Themen umfasst. Durch die Größe von UMLS ist es schwierig Information zu extrahiern und auch die korrekte Zuweisung von Phrasen zu Konzepten ist nicht einfach. Mit der Hilfe von MetaMap Transfer (MMTx) kann dieses Zuweisungsproblem ausgelagert werden. Das UMLSint package wurde entwickelt, um den Zugang zu den UMLS-Daten zu vereinfachen, die interessanten Attribute zu extrahieren und die Eingabedaten zu analysieren, um die betreffenden Konzepte in der Knowledge Base zu finden. Die Eingabe besteht aus einem Satz eines medizinischen Textes und UMLSint liefert mittels UMLS und MMTx ausgewählte Daten zurück. Dieses MMTx Werkzeug wird dazu benutzt, um logische Einheiten zu erzeugen und Informationen über die lexikalische und morphologische Struktur zu generieren. Für jede logische Einheit werden verschiedene Informationen, wie semantische Art, Begriffsart, Wortart, Metathesaurus Konzept ID und vieles mehr, zurückgeliefert. Das Thema dieser Arbeit ist es, IE Systemen, welche medizinische Texte verarbeiten, einen leichteren Zugang zur Knowledge Base zu verschaffen, welche hier das UMLS System darstellen.

Diplomarbeitsposter Lehrbaum Reinhard

Reinhard Lehrbaum

Diplomstudium Informatik
Abstract:

In den Nachrichten hört man immer über Würmer, Viren und Hacker, die einem IT-System geschadet haben. Dies führt zu dem Gefühl das es keinen Mechanismus gibt um die digitale Infrasturktur zu schützen. Diese Diplomarbeit versucht zu eruieren ob es möglich ist mit Hilfe von Security Policies sich vor solchen Gefahren zu schützen. Policies können mittels unterschiedlichster Methoden erstellt werden. Es wurden für die engere Begutachtung zwei davon ausgewählt. Formale Sprachen und Richtlinien und Referenzen sind diese zwei. Durch die bessere Unterstützung des gesamten Sicherheitsprozesses wurden die Richtlinien und Referenzen für die Case-Study ausgewählt. Nach einem theoretischen Überblick über die verschieden Schritte des Policy-Erstellungszyklus wurde die Theorie anhand einer Fallstudie evaluiert. Das Resultat des ganzen Prozesses zeigt, dass es die Unterstützung durch das Management der Organisation und vor allen Zeit braucht um eine funktionierende Security Policy zu erstellen und erhalten. In machen Fällen reicht das interne Wissen der Organisation nicht für den gesamten Prozess. Die Richtlinien und Referenzen in diesem Fall das “IT Grundschutzhandbuch” ist ein unterstützender aber nicht einfacher Weg eine Policy zu erstellen und ein sicheres System zu erhalten.

Diplomarbeitsposter Masic Zlatan

Zlatan Masic

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit beschreiben wir die Idee und Entwicklung vom Anonymous Secure Online Rental System (ASORS). Es handelt sich hierbei um eine Online-Plattform zum Verleih von Gegenst¨anden zwischen Privatpersonen. Wir betrachten zun¨achst die sich heute am Markt befindlichen E-Business Formen. Die erfolgreichsten Vertreter aus diesem Bereich sind Auktions-, Verkaufs- und Verleihplattformen. Bei genauerer Betrachtung zeigt sich, dass diese L¨osungen meist nur f¨ur spezifische Produktangebote existieren. ASORS hingegen stellt eine Verleihgesamtl¨osung dar. Es k¨onnen also die verschiedensten Produkte verliehen und ausgeliehen werden. In dieser Diplomarbeit werden die Systemarchitektur sowie die Implementierung von ASORS beschrieben. Da es sich hier um ein kommerzielles Produkt handelt und sich der Webauftritt sowie das Zahlungssystem noch in Planung befinden, liegt der Schwerpunkt dieser Diplomarbeit auf der Funktionalit¨at von ASORS. Es werden zwar auch Design-Konzepte f¨ur die einzelnen Webseitenbereiche dargestellt, diese dienen allerdings nur dazu, die Funktionalit¨at zu veranschaulichen, und sind nicht endg¨ultig. Wie aus dem Namen ASORS ersichtlich ist, liegt ein weiterer Schwerpunkt in den Bereichen Sicherheit und Anonymit¨at. Die Plattform soll anonym verwendet werden k¨onnen und Schutz vor heute g¨angigen Sicherheitsangriffen bzw. Online-Betrug bieten. Im Gegensatz zu auf dem Markt befindlichen L¨osungen soll ASORS f¨ur eine breite Produktpalette angewendet werden k¨onnen. Wir hoffen, dass dieser Ansatz zu einer hohen Akzeptanz bei zuk¨unftigen Benutzern f¨uhren wird.

Diplomarbeitsposter Peinthor Christoph

Christoph Peinthor

Masterstudium Informatikmanagement
Abstract:

Sicherheit; pdf; dynamische Veränderung

Diplomarbeitsposter Peiszer Ewald

Ewald Peiszer

Intelligente Systeme
Abstract:

Segmentierung / Segmentgrenze / Strukturerkennung / Evaluierung / Korpus / Algorithmus / Novelty Score / Clustering / Groundtruth / Annotierung

Diplomarbeitsposter Richter Franz

Franz Richter

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die wichtigste Erkenntnis meiner Arbeit ist, dass der geeignete Zeitpunkt für die Einführung der Testautomation von bestimmten Vorbedingungen abhängt, ohne die ein sinnvoller Einsatz gar nicht möglich ist.

Diplomarbeitsposter Wisser Martin

Martin Wisser

Masterstudium Business Informatics
Abstract:

Informationstechnologie und neue Geschäftskonzepte haben Geschäftsprozesse in den letzten Jahrzehnten stark verändert. Bis heute besteht jedoch eine Lücke zwischen der realen Welt und ihrem virtuellen Abbild. Mit Methoden wie „Autonomous Business Process Management“ und der Verwendung von Technologien wie RFID könnten Unternehmen in der Zukunft ihre Prozesse automatisch an veränderte Bedingungen anpassen. In dieser Magisterarbeit wird aufgezeigt, wie RFID zur Analyse von Geschäftsprozessen eingesetzt werden kann und welche Daten dabei erfaßt werden können. Möglichen Daten sind dabei neben reiner Zeiterfassung Sensordaten wie Temperatur, Beschleunigung oder Feuchtigkeit sowie Ortsdaten die in Verbindung mit GPS-Modulen erstellt werden. Ein Vorgehensmodell definiert die zur Analyse notwendigen Schritte und gliedert diese in vier Phasen.

Andere Institute der Technischen Universität Wien

(vor 2018) Zentrum für Informations- und Facilitymanagement

Diplomarbeitsposter Diermaier Josef

Josef Diermaier

Masterstudium Medizinische Informatik
Abstract:

Gegenwärtig befindet sich die Bevölkerungszusammensetzung aller modernen Industrienationen in Bezug auf das Lebensalter in einem stetigen Wandel. Der Trend führt dahin, dass in absehbarer Zukunft das als am wahrscheinlichsten angesehene Durchschnittsalter von 39,3 Jahren im Jahr 2004 auf 50,4 Jahre im Jahr 2050 steigen wird. Die Folgen für unsere Gesellschaft werden große finanzielle Herausforderungen mit sich bringen, daher müssen Lösungen entwickelt werden, die dem Trend entgegenwirken. Das vorliegende Dokument ist eine von drei Magisterarbeiten, die im Rahmen des Projektes „WUI (Wohnen mit Unterstützender Intelligenz)“ entstanden sind. Das vom gemeinnützigen Unternehmen CEIT Raltec finanzierte Projekt hat die Zielsetzung, ein Ambient Assisted Living System zu entwickeln, um die Wohnsituation von alleinstehenden Senioren / Seniorinnen zu verbessern. In dieser Magisterarbeit werden zuerst die Hintergründe und das Gesamtkonzept des Projektes, und im Speziellen die Entwicklung der Applikation „WUI-MIS (WUI - Monitoring and Inference System)“ beschrieben. Das System wurde im Seniorenzentrum Schwechat mit einer 82-jährigen Frau getestet. Über den Testablauf und dessen Auswertung wird im Anschluss ein Überblick gegeben.

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Atri Aman

Aman Atri

Masterstudium Software Engineering & Internet Computing
Abstract:

interargieren mit dem Web für den Datenaustausch. Für diese Plattformen werden spezielle Softwarearchitekturen zur Modellierung vorgestellt. Der praktische Teil der Arbeit stellt ein paar bekannte heterogene Softwarelösungen für verteilte Computersimulationen vor, die sich schon seit Jahren bewährt haben und in zahlreichen (Desktop - und Webapplikationen) Projekten eingesetzt werden.

Diplomarbeitsposter Gasselhuber Astrid

Astrid Gasselhuber

Masterstudium Medizinische Informatik
Abstract:

In der vorliegenden Arbeit werden zu Beginn physiologische Grundlagen über die Nervenzelle, das Ohr sowie den Hörvorgang behandelt. Der anschließende Teil gibt einen umfassenden Überblick zum Thema Tinnitus. Er beinhaltet verschiedene Arten der Tinnitusklassifizierung, eine Zusammenfassung der Hypothesen zu seiner Entstehung, verschiedene Methoden der Diagnostik, sowie die Vorstellung der wichtigsten Therapieansätze. Die weitere Arbeit befasst sich mit einer speziellen Therapieform, der transkraniellen Magnetstimulation. Es werden deren physikalische Grundlagen und die Wirkungsweise erklärt, aber auch technische Komponenten, wie etwa verschiedene Schaltungen und Spulenformen, besprochen. Ein Finite Elemente-Modell der transkraniellen Magnetstimulation wird erstellt. Es beruht auf einer vereinfachten Geometrie und soll die wesentlichen physikalischen Zusammenhänge näher beleuchten und eine Basis für die auf experimentellen Befunden basierende Annahme liefern, dass mit Magnetfeldern, die kleiner als etwa 0,6 Tesla sind, keine Aktionspotenziale evoziert werden. Der Maximalwert des Magnetfeldes in der Simulation erreicht direkt unter der Spule etwas über 2 Tesla. Im Cortex zeigt sich nahe dem Schädelknochen bis 2 cm in der Tiefe ein annähernd linearer Abfall des Magnetfeldes. Im Modell beträgt das Magnetfeld an der Schädeloberseite im Bereich des Cortex ca. 0,6 Tesla, ein Wert der gerade noch über der Auslösungsschwelle von Aktionspotenzialen liegt. Aus der Simulation zeigt sich, wie sich die einzelnen Felder ausrichten. Dadurch lassen sich Rückschlüsse auf einen für die Anregung günstigen Verlauf einer Nervenfaser ziehen. Abschließend beschäftigt sich die Arbeit mit den Annahmen, Ergebnissen und Einschränkungen des Modells und gibt einen Ausblick auf mögliche Weiterentwicklungen.

Diplomarbeitsposter Schramm Wolfgang

Wolfgang Schramm

Masterstudium Informatikmanagement
Abstract:

Radiofrequenz ablation (RFA) ist eine minimal invasive Methode um mithilfe von Hitze pathologisches Gewebe wie z.B. Tumorgewebe zu zerstören. Bei einer RFA wird ein Applikator direkt in den Tumor eingeführt wo eine Koagulationsnekrose erzeugt wird. Während einer typischen Anwendung von 10 bis 15 Minuten wird eine ca. 3-5.5 cm große Sphäre an totem Gewebe erzeugt. RFA wird derzeit für thermische Ablation von Knochen, Leber, Nieren, Herz, Prostata, Brust, Gehirn und Tumorgewebe eingesetzt. Allerdings variiert die Menge an thermischer Energie die benötigt wird um eine komplette Nekrose zu erzielen. Dies liegt vor allem daran, dass viele Gewebeparameter zu wenig bekannt sind. Derzeit wird RFA aufgrund von empirisch gefundenen Daten durchgeführt. Meine Arbeit behandelt die Erstellung von Finite Element Modellen, die das thermische Verhalten von Radiofrequenz- und Mikrowellenablation (MWA) untersuchen. Der Hauptteil dieser Arbeit behandelt den Vergleich der Beteiligung von direkter Erwärmung, Wärmeleitung und Perfusion an der resultierenden Wärmeverteilung eines typischen Radfrequenz bzw. Mikrowellen Durchlaufs. Ich habe Finite Element Modelle einer RF Elektrode (gekühlt, 17 gauge) und einer MW Antenne (Dipol, 13 gauge) erstellt. RFA wurde für eine 12 Minuten Dauer simuliert wobei die zugeführte Energie so kontrolliert wurde, dass die maximale Temperatur ungefähr bei 100 C liegt. MWA wurde für eine Dauer von 6 Minuten simuliert, die zugeführte Energie betrug dabei 75W. Bei beiden Modellen wurde sowohl die Veränderung von elektrischen und thermischen Gewebsparameter also auch die temperaturbedingte Veränderung der Blutperfusion berücksichtigt. Bei beiden Simulationen wurde die Gewebstemperatur und den berechneten Perfusionseffekt ermittelt und evaluiert. Die maximale Gewebstemperatur lag bei 100 C für die RFA und bei 177 C für die MWA. Bei beiden Modellen wird das Gewebe nur in Nähe des Applikators direkt erhitzt. MWA ermöglicht höhere Temperaturen als RFA, da Mikrowell...

(vor 2018) Institut für Statistik und Wahrscheinlichkeitstheorie

Diplomarbeitsposter Fritz Heinrich

Heinrich Fritz

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Inhalt der Masterarbeit ist im Wesentlichen Schätzung der Plausibilität von Datenbeständen, unabhängig von eventuellen Verunreinigungen der Daten, sowie die Entwicklung und effiziente Implementierung neuartiger, robuster Algorithmen zur Schätzung fehlender Werte. Die Einschätzung der Plausibilität einer Menge an Beobachtungen, basiert im Groben auf einer Schätzung der den Daten zugrunde liegenden Struktur. Wie gut eine einzelne Beobachtung dieser Gesamtstruktur entspricht, gibt Aufschluss über deren Plausibilität. Um die Grundstruktur zu repräsentieren, werden hier Hauptkomponenten (Principal Components) verwendet. Da einzelne Beobachtungen, die nicht der Grundstruktur angehören (Ausreißer), die Schätzung nicht allzu stark beeinflussen sollen, werden in diesem Zusammenhang durchgehend robuste Methoden verwendet. Auch die Ermittlung fehlender Werte basiert auf einer ersten Schätzung der Hauptkomponenten. Die Werte von sogenannten Missings werden so gewählt, dass die zugehörigen Beobachtungen möglichst gut auf den geschätzten Hauptkomponenten zu liegen kommen. Iterativ werden Hauptkomponenten geschätzt, und die betroffenen Beobachtungen auf diese projiziert, bis dieser Prozess an einem gewissen Punkt konvergiert. In diesem Zusammenhang wurden vorhandene Algorithmen bezüglich der Güte der Schätzung fehlender Werte sowie ihrer Laufzeit verbessert. Im Speziellen zielt diese Verbesserung auf das Projektionsverfahren ab, mit dem Beobachtungen mit Missings auf die Hauptkomponenten projiziert werden. Ein komplettes Paket, welches diese Funktionalität für die Software R implementiert, ist bereits in Arbeit und wird demnächst erscheinen.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Ecker Helmut

Helmut Ecker

Masterstudium Business Informatics
Abstract:

Das Ziel dieser Magisterarbeit ist es, die Anwendung von Simulationsstudien zu untersuchen. Eine derartige Untersuchung soll im Rahmen dieser Arbeit durchgeführt werden, indem eine Simulation an einem UMTS-Site-Rollout eines Telekommunikationsausrüsters praktisch angewandt wird. In diesem Zusammenhang wird anfangs beschrieben, was unter Simulation zu verstehen ist, welche Begriffe im Zusammenhang mit Simulation verwendet werden und welche Arten der Simulation existieren. Anschließend wird der allgemeine Ablauf einer Simulationsstudie beschrieben und später anhand eines Simulationsmodells des oben genannten UMTS-Site-Rollouts mittels der Simulationssoftware GPSS World für Windows praktisch veranschaulicht. Bis dato waren bei Veränderungen in der Projektumwelt lediglich Einschätzungen des Projektmanagements ein Werkzeug für die Vorhersage von Entwicklungen. In der Simulationsstudie soll nun untersucht werden, wie sich Veränderungen der Personalstärke der einzelnen Abteilungen, aber auch mögliche Veränderungen im Volumen des Gesamtprojekts auswirken. Weiters soll auch untersucht werden, unter welchen Voraussetzungen es möglich ist, die Durchlaufzeiten für einzelne UMTS-Sites zu verkürzen um so mehr Standorte realisieren zu können als bisher oder ob kürzere oder längere Durchlaufzeiten sich positiv auf die Effizienz auswirken. Am Ende der Arbeit wird in einer Ergebnispräsentation zusammengefasst, welche Erfahrungen mit der Simulationsstudie gewonnen werden konnten und weiters wird in einer Empfehlung festgehalten, in welchen Bereichen Veränderungen sinnvoll wären.

Diplomarbeitsposter Gottwald Michael

Michael Gottwald

Masterstudium Business Informatics
Abstract:

Die Magisterarbeit behandelt das Thema Customer Relationship Management (CRM). Im allgemeinen Teil werden grundsätzliche Informationen rund um das Thema CRM gebracht. Dabei wird genau auf Kundenbindung, E-CRM und die Gründe für CRM eingegangen. Der zweite Bereich ist der technische Teil der Arbeit, der über die benötigte Technik Auskunft gibt und das Problem mit der Datenqualität behandelt. Im letzten Abschnitt, dem praktischen Teil, wird das Suchen einer geeigneten CRM-Software für ein Unternehmen beschrieben. Dabei wird das einzusetzende CRM-System COUPER ausführlich behandelt und analysiert. Die Magisterarbeit endet mit einer Zusammenfassung.

Diplomarbeitsposter Popp Thomas

Thomas Popp

Masterstudium Business Informatics
Abstract:

<text:span text:style-name='T9'>Das Ergebnis der Untersuchung zeigt, dass es mit allen betrachteten Modellen möglich ist, das allgemeine COBIT abzubilden. Daher sind diese Modelle für eine Umsetzung von IT-Governance im Unternehmen geeignet. </text:span><text:span text:style-name='T12'>1 </text:span><text:span text:style-name='T9'>„Blinde Flecken“ sind Anforderungen des betrachteten COBIT-Teilbereichs, die nicht direkt mit dem betrachteten Modell abgebildet werden können</text:span>

Diplomarbeitsposter Zakarias Günter

Günter Zakarias

Masterstudium Informatikmanagement
Abstract:

Unternehmen setzen die IT zunehmend für die Teilautomatisierung von geschäftskritischen Prozessen ein, dies führt zu einer steigenden Abhängigkeit der Unternehmen von der eingesetzten IT. IT-Abteilungen sind daher auch in zunehmenden Maß mit der Problemstellung konfrontiert, die IT-Dienstleistungen mit einer vom Unternehmen geforderten Mindestqualität erbringen zu müssen. Diese Mindestqualität kann aber in manchen Fällen nicht mehr von der internen IT-Abteilung erreicht werden. Durch die steigende Komplexität und den damit verbundenen steigenden Kosten für den Betrieb der IT-Landschaft steigt auch der Kostendruck auf die IT-Abteilungen. Outsourcing von IT-Leistungen wird daher in zunehmenden Maß auch für kleine und mittlere Betriebe an Bedeutung gewinnen. Wesentlich beim Outsourcing von IT-Dienstleistungen ist es, diejenigen Bereiche der IT zu selektieren, deren Vergabe an einen externen Dritten einen Vorteil für das Unternehmen bringt. Das International Performance Research Institute in Stuttgart hat für die Evaluierung von selektiven Sourcing-Szenarien die Methode „IT-Strategy-Maps“ entwickelt und stellt für die Umsetzung der Methode auch ein entsprechendes Excel-Tool bereit. Diese Methode wird gemeinsam mit dem zur Verfügung gestellten Tool bei zwei Unternehmen in der Privatwirtschaft in Österreich eingesetzt. Die Erfahrungen mit dem Einsatz der Methode werden mit Best-Practise-Erfahrungen des Autors gegenübergestellt, um eine Aussage zur Praxistauglichkeit der Methode treffen zu können. Weiters werden die zur Anwendung der Methode notwendigen Kenntnisse und Berufserfahrungen aus Sicht des Autors dargestellt. Die Methode hat sich im praktischen Einsatz bewährt, auch wenn einige Empfehlungen zur Verbesserung der Methode identifiziert wurden. Die Methode sollte aus Sicht des Autors aber nur dann zur Anwendung kommen, wenn entweder ausreichende Erfahrungen mit Outsourcing-Verhältnissen vorhanden sind oder geeignete externe Berater eingebunden werden.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

(vor 2010) E183/2 - Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Rauter Michael

Michael Rauter

Masterstudium Visual Computing
Abstract:

In dieser Masterarbeit wird ein Object Tracking System realisiert, das bei Video-Material mit Auflösungen von bis zu 768 × 576 Bildpunkten bei 3 Farbkanälen Echtzeitfähigkeit erreichen soll (Def.: das Verarbeiten von 25 Bildern pro Sekunde – in 40 Millisekunden müssen alle Algorithmen fertig berechnet werden). Dabei werden state-of-the-art Algorithmen verwendet, die auf CPUs mit nur einem Rechenkern nur bei geringeren Video-Auflösungen Echtzeitfähigkeit erreichen. Ziel ist die Performance-Steigerung eines Object Tracking Systems. Die Motivation für eine Performance-Steigerung rührt daher, dass sich, je weniger Zeit für das Berechnen von Verarbeitungsschritten eines Object Tracking Systems benötigt wird, desto höhere Video-Auflösungen und -Frameraten handhaben lassen (resultiert in besseren Tracking-Ergebnissen), und es bleibt mehr Zeit für weitere Verarbeitungsschritte (z.B. höherentwickelte Data Association, Behaviour Detection). Die Berechnungsschritte, die im entwickelten System durchgeführt werden und als Gesamtpaket in Echtzeit laufen sollen, sind Datenerfassung, Bewegungserkennung samt Schatten- und Reflexionserkennung inklusive deren Entfernung, Connected Components Analysis, Verwalten der zu trackenden Objekte (Initialisierung, Tracking, Data Association, Löschen) und die grafische Ausgabe. Die Echtzeitfähigkeit wird dadurch erreicht, dass einerseits Algorithmen bzw. Algorithmusschritte, die parallelisierbar sind, auf die Grafikkarte ausgelagert werden und andererseits durch Multi-Threading Mehrkernprozessoren ausgereizt werden, indem verschiedene Phasen der Verarbeitungskette des Systems auf alle vorhandenen CPU-Kerne aufgeteilt und so Berechnungen simultan auf verschiedenen Rechenkernen ausgeführt werden (Datenerfassung, Bewegungserkennung, Object Tracking, Visualisierung). Mit diesen Konzepten erreicht das implementierte Object Tracking System eine Performancesteigerung um mehr als den Faktor 9 im Vergleich zu einer optimierten Single-Core CPU-Variante.

Diplomarbeitsposter Stöttinger Julian

Julian Stöttinger

Masterstudium Visual Computing
Abstract:

Bildererkennung , Farbraum,Bildklassifizierung, Lokale Deskriptoren

Diplomarbeitsposter Zambanini Sebastian

Sebastian Zambanini

Masterstudium Visual Computing
Abstract:

Diese Masterarbeit stellt eine Methode zur automatischen Bewertung des Krankheitsverlaufs von Hämangiomen auf der Haut anhand von digitalen Bildern vor. Generell werden dabei zwei Messungen auf Fotos, die während mehreren Untersuchungen in bestimmten Zeitintervallen gemacht wurden, durchgeführt: Erstens die Bestimmung der Fläche der betroffenen Hautregion, und zweitens die Ermittlung des Anteils bzw. der Fläche des Hämangioms, die eine Rückbildung aufweist. Für beide dieser Analysen wird ein pixelweises Klassifikationsschema auf die Bilder angewandt. Die eigentliche Bestimmung der Fläche erfolgt durch die Berechnung der räumlichen Auflösung der Bilder anhand eines Lineals, das vor der Bildaufnahme auf der Haut angebracht wurde und in den Bildern zu sehen ist. Für eine verlässliche Bestimmung der Regionen mit Rückbildung werden die Bilderserien aufeinander registriert, was einen direkten Vergleich von Farbwerten zwischen dem aktuellen und dem Bild aus der Erstuntersuchung erlaubt. Hierfür wird eine robuste Methode vorgestellt, die in der Lage ist, Bilder von aufeinander folgenden Untersuchungen trotz des sich verändernden Aussehens der Hämangiome aufeinander zu registrieren. Experimente werden sowohl auf den einzelnen Algorithmen als auch auf der Gesamtprozedur für Bilderserien durchgeführt und präsentiert. Die vorgestellte Methode liefert eine genauere und objektivere Auswertung des Krankheitsverlaufs als die gängige klinische Praxis, die lediglich eine manuelle Vermessung mithilfe eines Maßbandes sowie die subjektive Schätzung des Prozentsatzes von Regionen mit Rückbildung durch den behandelnden Arzt vorsieht.