EPILOG Wintersemester 2008

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Kraut Hubert

Hubert Kraut

Masterstudium Technische Informatik
Abstract:

Das DECOS SoC Komponentenmodell beschreibt eine Architektur der nächsten Generation, die eine Plattform für die einfache Integration verschiedenster Typen eingebetteter Applikationen (z.B. Unterhaltungs-, Avionik-, Automobil- und Industrieelektronik) bietet. Den Kern dieser Architektur bildet das zeitgesteuerte NoC, das eine deterministische Kommunikation zwischen den heterogenen Komponenten über einen gemeinsamen Bus unterstützt. Die dadurch inhärente Fehlerisolation ermöglicht eine nahtlose Integration unabhängig entwickelter Komponenten mit möglicherweise unterschiedlichen Zertifizierungsgraden. Zusätzlich unterstützt das DECOS SoC Komponentenmodell die dynamische Rekonfiguration von Komponenten bei sich ändernden Applikationsanforderungen, z.B. im Hinblick auf Ressourcenverteilung, Fehlertoleranz und Energiemanagement. In dieser Arbeit wird ein generisches Zuverlässigkeitsmodell für eine DECOS SoC Komponente präsentiert mit dem von einer einzelnen Komponente sowie von verteilten Applikationen aufbauend auf solchen Komponenten die Zuverlässigkeit quantitativ evaluiert wird. Die Parameter für das Modell werden von einer Prototypimplementierung übernommen. Durch die Variation der Modellparameter werden Designentscheidungen und Technologie/Applikations-Beschränkungen analysiert. Besonderes Augenmerk wird auf transiente Fehler gelegt, die durch Partikeleinschläge (kosmische Strahlung und Rückstände vom Herstellungsprozess) verursacht werden. Diese haben einen gewichtigen Anteil an der Ausfallsrate elektronischer Systeme und gewinnen weiter an Bedeutung durch die fortschreitende Miniaturisierung der Halbleitertechnologien und der Verringerung der Spannungsversorgung. Ein weiterer Fokus liegt bei der Betrachtung von Designfehler im Kontext der integrierten Ausführung von Applikationen mit unterschiedlichen Zertifizierungsstufen und bei dem Nutzen von Designdiversität für redundanten Komponenten.

Diplomarbeitsposter Pucher Christian

Christian Pucher

Masterstudium Technische Informatik
Abstract:

Echtzeitsysteme / DECOS / Gateways

Diplomarbeitsposter Strnad Thomas

Thomas Strnad

Diplomstudium Informatik
Abstract:

Keine Angaben

Diplomarbeitsposter Wögerer Wolfgang

Wolfgang Wögerer

Diplomstudium Informatik
Abstract:

Die Analyse der worst-case Laufzeit der Prozesse eines Echtzeitsystems ist eine wichtige Unteraufgabe bei der Konstuktion dieser Systeme. Speziell für harte Echtzeitsysteme, bei denen ein Fehlverhalten zum Verlust menschlichen Lebens führen kann, muss garantiert sein, dass in jedem Fall alle Deadlines des Systems eingehalten werden. Eine statische Analyse der worst-case Laufzeit kann die dafür nötigen sicheren (Über-)Approximationen bieten. Diese (Über-)Approximationen bergen das Risiko in sich, dass diese hoch über der wirklichen worst-case Laufzeit liegen und dass das System als ganzes nicht gebaut werden kann, wenn die berechneten Laufzeiten berücksichtigt werden sollen. Viele Programme für Echtzeitsysteme werden heute in einer höheren Programmiersprache wie C geschrieben. Hauptsächlich da der Objektcode unter anderem Informationen darüber enthält welche Prozessorinstruktionen tatsächlich ausgeführt werden, basiert die statische Laufzeitanalyse nach dem momentaten State-of-the-Art auf Objektcode. Es zeigt sich, dass bei der statischen Laufzeitanalyse von Objektcode Probleme aufteten, die bei der statischen Laufzeitanalyse von Code einer höeren Programmiersprache nicht existent sind. Abstrakt gesehen kann man sagen, dass bestimmte Informationen für die statische Laufzeitanalyse aus dem Code einer höheren Programmiersprache einfacher zu extrahieren sind als jene aus equivalentem Objektcode. In anderen Worten, die Programmrepräsentation einer höheren Programmiersprache ist für diese Information expliziter als die Programmrepräsentation in Objektcode. Diese Diplomarbeit analysiert diesen Verlust an Explizitität und will damit die Forscher auf dem Gebiet der Laufzeitanalyse unterstützen die richtigen Ansatzpunkte zu finden, um diesen Verlust an Explizitheit zu reduzieren und damit bessere Laufzeitanalysesysteme zu schaffen.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Andreas Berger, Hannes Brandstetter, Sascha Andreas Hannes Frühwirth, Elham Hedayati Rad, Thomas Heinz, Eduard Hirsch, Harald Kahler-Ullepitsch, Berk Kaynak, Doris Lederer, Andreas Mauczka, Sean Mc Allister, Robert Messner, Jürgen Moser, Stephan Muri, Markus Opitz, Michael Paier, Prasanna Kumari Payani, Andreas Prein, Martha Rossa, Martin Schwarzbauer
Diplomarbeitsposter Awender Simone Elisabeth

Simone Elisabeth Awender

Masterstudium Information & Knowledge Management
Abstract:

Als Ziel der vorliegenden Diplomarbeit wird eine Anforderungsanalyse für die Realisierung einer Benutzerschnittstelle für ein webbasiertes Buchhaltungsprogramm für Einnahmen / Ausgabenrechner erstellt, wobei aktuelle Methoden des Usability Engineering eingesetzt und gängige Standards implementiert werden. Besonderer Fokus wird dabei auf die Bedürfnisse zukünftiger Benutzer und den Aspekt Barrierefreiheit gelegt, um neben den identifizierten Zielgruppen auch behinderten Anwendern eine optimale Nutzung zu ermöglichen. Zu Beginn werden die gängigsten Techniken der Fachdisziplin mit ihren spezifischen Vor- und Nachteilen einer potentiellen Umsetzung diskutiert. Der Planungsprozess wird ebenso vorgestellt wie die Werkzeuge, die zu dessen Realisierung verwendet werden können. Anhand eines konkreten Fallbeispiels wird aufgezeigt, welche Probleme in der Realisierungsphase auftreten können und in wie weit die Methoden des Usability Engineerings anwendbar sind. Dabei werden zunächst die betroffenen Benutzergruppen erhoben, die sich jeweils hinsichtlich ihrer grundsätzlichen Einstellung und Bereitschaft, ihrer Kenntnisse und Erfahrungen unterscheiden. Des weiteren werden bereits etablierte Anwendungen detailliert untersucht und ausgesuchte Elemente als Basis ins Fallbeispiel integriert, um den Benutzern eine gewohnte und damit intuitiv verwendbare Applikation anbieten zu können. Abschließend wird das Umfeld einer solchen Anwendung im Falle einer tatsächlichen Markteinführung beleuchtet, damit auch marktspezifische Anforderungen auf die Gestaltung der Oberfläche Einfluss nehmen können. Als Ergebnis der Arbeit wurde ein Prototyp der Anwendung entwickelt, der die essenziellen Erkenntnisse aus dieser Arbeit enthält und damit zeigen kann, inwieweit moderne Erkenntnisse des Usability Engineering dazu beitragen können, die Bedienbarkeit und somit die Akzeptanz der Benutzer zu erhöhen.

Diplomarbeitsposter Baranyi Rene

Rene Baranyi

Masterstudium Medizinische Informatik
Abstract:

Die Einführung einer elektronischen Patientenakte (EPA) befindet sich in Österreich derzeit noch in der Planungsphase. Die technische Umsetzung ist zwar durch die österreichische Bundesregierung in Auftrag gegeben und von diversen Firmen und Arbeitskreisen geplant, allerdings wird der künftige Benutzer in den Prozess der Entwicklung derzeit nicht ausreichend eingebunden. Aus diesem Grund wurde diese Studie über die Akzeptanz einer elektronischen Patientenakte an 170 Personen durchgeführt. Im Rahmen der vorliegenden Arbeit wurde analysiert, welche geplanten Aspekte einer EPA von den Testpersonen auf positive, oder aber negative Resonanz stoßen. Dabei wurden Informationen über Trends, Bedürfnisse, Erwartungen und Neigungen der befragten Benutzer erhoben, aber auch Ängste und Unsicherheiten, die sich vorwiegend auf den Bereich des Datenmissbrauchs beziehen, erfasst. Zunächst wurden Hypothesen zum Thema elektronische Patientenakte in Österreich im Allgemeinen erarbeitet, die durch die durchgeführte Befragung verifiziert oder falsifiziert wurden. Dabei zeigte sich, dass der Großteil (78%) der befragten Testpersonen bereits konkrete Vorstellungen von einer EPA hat. Dabei zeigen die verschiedenen Altersgruppen bei mehreren relevanten Fragestellungen keine signifikanten Unterschiede, z.B. glauben ältere (>40 Jahre) ebenso wie jüngere Menschen (< 40 Jahre) an einen persönlichen Nutzen durch eine EPA. Ein tendenzieller Unterschied der Altersgruppen konnte allerdings in Bezug auf die Verwaltung der in einer EPA gespeicherten medizinischen Daten erfasst werden. Ältere Menschen wollen dabei anfallende Daten von geschulten Personen verwalten lassen, während jüngere Benutzer ihre Daten selbst verwalten wollen. Als Ergebnis der durchgeführten Studie wurden deutliche Trends in Bezug auf Nutzung, Ängste und Ideen der zukünftigen Nutzer eines solchen Systems identifiziert.

Diplomarbeitsposter Flanitzer Thomas

Thomas Flanitzer

Masterstudium Technische Informatik
Abstract:

Home and Building Automation (HBA) systems use control networks for accessing devices inside buildings to improve the building's efficiency, flexibility and control. Typical applications include the control of lighting, heating, ventilation and air-conditioning. In such systems, a special device class called Sensors, Actuators and Controllers (SACs) can be be identified to have the typical characteristics of low-end ES. SACs play an important role in HBA systems and are often used in large numbers. The goal of this thesis is to provide general security in low-end ES while still allowing to run arbitrary and uninspected (and possible erroneous and malicious) application programs. The system as well as its environment should be protected against security attacks. Various existing mechanisms for improving application level security are reviewed and evaluated in terms of applicability to low-end embedded systems. Suitable mechanisms are selected and combined into a concept architecture which is introduced as an efficient and secure solution for providing resistance to any kind of software-based attack. The feasibility and effectiveness of the architecture is demonstrated with a Proof-of-Concept (PoC) implementation which was developed as part of the thesis. The PoC closely resembles the typical functional profile of a SAC device. A test environment, consisting of an HBA network, was built and several examples and tests were run. In these tests, the PoC delivered some interesting and promising results which support the potential of the proposed architecture.

Diplomarbeitsposter Gabriel Nicole

Nicole Gabriel

Masterstudium Business Informatics
Abstract:

Die gegenständliche Diplomarbeit beschäftigt sich mit derMöglichkeit, gewisse administrative Tätigkeiten in einem Krankenhaus auf die Patienten zu übertragen. Anhand des Fallbeispiels "Allgemeines Öffentliches Krankenhaus Güssing" werden die Funktionalitäten eines elektronischen Patienten-Kiosk-Systems analysiert, wobei die Terminreservierung, die Terminanmeldung und die Anzeige von Lageplänen die grundlegenden Funktionalitäten bilden. Basis der Diplomarbeit ist die Definition von fachlichen Grundlagen zur Anforderungsanalyse sowie der Methodik für die Erarbeitung dieser. Ausgehend von der Erhebung des Ist-Zustandes und der Definition der An- und Abmeldeprozesse von Patienten wird eine umfassende Analyse durchgeführt, welche Anforderungen das Patienten-Kiosk-System erfüllen soll und wie der Einsatz des Systems zuvor genannte Prozesse verändert.

Diplomarbeitsposter Hren Yvonne

Yvonne Hren

Masterstudium Informatikmanagement
Abstract:

Das Mobiltelefon dient heutzutage neben seiner primären Funktion als Kommunikationsmedium zur Bereitstellung unterschiedlichster Informationen. Durch die Entwicklung der drahtlosen Near Field Communication (NFC) wurde nun zusätzlich die Nutzung als elektronische Geldbörse für mobile Bezahlung (M-Payment) realisiert. Die vorliegende Arbeit beschäftigt sich zunächst mit den Grundlagen von Bezahlsystemen im Allgemeinen sowie gängigen Technologien zur Datenübertragung. Kern der Arbeit ist die Identifizierung möglicher Sicherheitsrisiken und die Erarbeitung von Kriterien, die für die Akzeptanz von M-Payment beim Endanwender wichtig sind. Basis für entsprechende Bewertungen waren vor allem Studien und Meinungsumfragen von Endanwendern über die Nutzung oder Ablehnung von M-Payment sowie Erhebungen zum Thema Sicherheitsrisiken im Bereich der Datenübertragung. Im Rahmen der vorliegenden Arbeit konnte klar aufgezeigt werden, dass derzeit noch zahlreiche Sicherheitsrisiken bei der Nutzung von Mobile Contactless Payment, das ist M-Payment mittels NFC, bestehen. Als kritische sicherheitsrelevante Erfolgsfaktoren bei der Etablierung von Mobile Contactless Payment konnten folgende Parameter identifiziert werden: die sichere Kommunikation der Geräte, die Wahl des Trägermediums, der Einsatz einer geeigneten und ausgereiften Software, Prävention von Anwendungs­fehlern, der vertrauliche Umgang mit Daten, die Sicherheit der Smart Card sowie die Einhaltung allgemein gültiger Sicherheitsaspekte. Zusammenfassend konnte gezeigt werden, dass erst durch die Berücksichtigung dieser identifzierten Sicherheitskriterien die Endanwender­akzeptanz von Mobile Contactless Payment entscheidend erhöht werden kann, woran bisherige Projekte scheiterten.

Diplomarbeitsposter Hussein Kariem

Kariem Hussein

Diplomstudium Informatik
Abstract:

Da sich die Softwareindustrie immer noch ständig weiter entwickelt, ist es für Firmen nötig, ihre Absichten in der Form von Anforderungsdokumentation niederzuschreiben und diese Anforderungen sowohl intern, als auch mit ihren Kunden zu kommunizieren. Beim Verfassen der Anforderungsdokumentation verwenden Autoren heutzutage hauptsächlich Textverarbeitungsprogramme, sowie zusätzliche Software zur Erstellung von Grafiken. Diese Kombination von Werkzeugen bietet nur sehr wenige der Eigenschaften, die für die Erstellung, Prüfung, oder Wartung von solcher Dokumentation nötig ist, wie etwa transparente Versionierung, automatisierte Publizierung und erweiterbare Schnittstellen zur Verbindung von externen Systemen. Das in dieser Arbeit vorgestellte Authoring Framework bietet Verbesserungen auf all den angesprochenen Ebenen und, aufgrund des Standars-basierten Konzeptes, Integrationspunkte für bestehende Software. Diese Arbeit zeigt, wie die einzelnen Teile der Komponenten des Frameworks — das Dokumentenformat, das Autorensystem, sowie das Repository — zusammen wirken, um eine Umgebung für die effiziente Erstellung von Dokumenten zu schaffen. Bereits bestehende Lösungen für das Dokumentenformat und das Autorensystem werden analysiert und gegenübergestellt. Für beide Komponenten beschreibt diese Arbeit Kriterien, die dafür verwendet werden können, Lösungen für den Einsatz zur Dokumentationserstellung zu bewerten. Die daraus resultierenden Ergebnisse werden bei der Architektur und beim Design des Authoring Frameworks eingesetzt.

Diplomarbeitsposter Kekeiss Christian

Christian Kekeiss

Masterstudium Software Engineering & Internet Computing
Abstract:

client-seitige Angriffe; Honeyclient; Malware; Computersicherheit; universitäre Netzwerke

Diplomarbeitsposter Krenn Ulrich Johannes

Ulrich Johannes Krenn

Masterstudium Informatikmanagement
Abstract:

ERP, Monitoring, ITIL, IT Management Software, Outsourcing, SAP, Solution Manager

Diplomarbeitsposter Kuch Johannes

Johannes Kuch

Masterstudium Software Engineering & Internet Computing
Abstract:

Das Telefon begleitet die Menschheit seit seiner Erfindung vor nun mehr als 150 Jahren. Es gab ständig Weiterentwicklungen und Neuerungen, die den anfänglichen Apparat zur Kommunikation via Sprache mittlerweile zu einem multifunktionalen Gerät für vielerlei Aufgaben reifen ließen. Der neueste Trend auf diesem Gebiet heißt Voice-over-IP (VoIP) und befindet sich seit einigen Jahren auf einem rasanten Vormarsch. Durch die Verbreitung des Internets und TCP/IP im LAN-Bereich findet sich fast überall eine geeignete Infrastruktur, um darauf aufbauend Telefoniedienste zu betreiben. Durch das Aufkommen von immer einfacheren Produkten, die sich diese Technologie zunutze machen, steigt nun die Verbreitung weiter. Wie jede neue Technologie, die Vorteile bringt, gibt es auch bei VoIP Risiken und Probleme beim Einsatz, welche auch berücksichtigt werden müssen. Dazu soll aufgezeigt werden, wo Schwachstellen von derzeitigen VoIP-Protokollen sind, was man dagegen tun kann und inwieweit der Einsatz von Sicherungsmaßnahmen Besserung bringt bzw. was für Nachteile durch den Einsatz dieser auftreten können. Die vorliegende Arbeit soll hierbei einen aktuellen Überblick über verwendete und mögliche Technologien zur Sicherung von VoIP und der zugrunde liegenden Infrastruktur geben. Aufgrund der rasant wachsenden Technologien bieten andere Werke meist eine überalterte und/oder nicht vollständige Sicht auf die aktuelle Entwicklung, sodass diese zwar als Quellen herangezogen werden können, aber nicht ausreichen. Auch steht bei dieser Arbeit die ganzheitliche Betrachtung im Vordergrund, sodass sowohl VoIP als auch die zugrunde liegende Infrastruktur als Gesamtheit analysiert wird. Im Rahmen der vorliegenden Arbeit wird klar aufgezeigt, dass es für die Absicherung von VoIP-Verbindungen eine Vielzahl von Möglichkeiten gibt, deren Einsatz stark von den Anforderungen an die Sicherheit und den technischen Möglichkeiten der VoIP-Geräte abhängt.

Diplomarbeitsposter Köhler Wolfgang

Wolfgang Köhler

Diplomstudium Informatik
Abstract:

EIB / KNX / EIBsec / Simulation

Diplomarbeitsposter Ludl Christian

Christian Ludl

Masterstudium Software Engineering & Internet Computing
Abstract:

Aufgrund der steigenden Anzahl von Web Seiten, der zunehmenden Komplexität der Web Applikationen und der immer größer werdenden Bedeutung, die das World Wide Web in den letzten Jahren erfahren hat, nimmt auch die Forderung nach Absicherung der involvierten Technologien zu. Schwachstellen wie "Buffer Overflows" in der zugrunde liegenden Infrastruktur wie Web Server oder Betriebssystem haben an Bedeutung verloren, während die Sicherheitsaspekte auf höheren Ebenen immer wichtiger wurden. Insbesondere bei großen Web Applikationen zählen "cross-site scripting" Attacken heutzutage zu den größten Sicherheitsproblemen. Aktuelle Lösungsansätze um solche Attacken einzuschränken basieren hauptsächlich auf serverseitigen Eingabefiltern, "Input Filtern". Das Erstellen von passenden Input Filtern kann schwierig und fehleranfällig sein.Andere Ansätze müssen vom Endbenutzer angewandt werden. Aufgrund von Beobachtungen von filterbasierten Lösungen und deren Problemen, stelle ich einen neuen Ansatz vor, der die Vorteile der Fähigkeiten eines Web Browsers beim Ausführen von JavaScript ausnutzt, um bösartigen Input zu erkennen. Dies geschieht ohne Involvierung des Endbenutzers. In dieser Arbeit werde ich die Notwendigkeit für neue Methoden erklären, einen Überblick über meinen Ansatz geben und die "Proof-of-concept" Implementierung, die ich erstellt habe beschreiben: SWAP (Secure Web Application Proxy), ist ein System, das eine modifizierteVersion des Mozilla Firefox Browsers und einen Reverse Proxy kombiniert, um eine serverseitige Lösung zur Bekämpfung von "reflected" und "stored cross-site scripting" Attacken zu erhalten. Anschließend werde ich einen Testablauf beschreiben, der die Fähigkeiten der Implementierung bestätigt. Zu diesem Zweck wurde ein Testsystem erstellt, das SWAP mit Real-World Applikationen testet. Mein Ansatz liefert völlige Transparenz für den Client und ist daher eine brauchbare Alternative um Endbenutzer vor "cross-site scripting" Attacken zu beschützen.

Diplomarbeitsposter Maricevic Tomislav

Tomislav Maricevic

Masterstudium Business Informatics
Abstract:

Keine Angaben

Diplomarbeitsposter Mund Thomas

Thomas Mund

Masterstudium Informatikmanagement
Abstract:

In der Vergangenheit wie auch heute noch werden Gebäudeautomations-Systeme hauptsächlich aus kabelgebundenen Netzen und Komponenten aufgebaut. Es gibt allerdings Anzeichen für einen Trend hin zu funkbasierten Lösungen. Drahtlose Netzwerke in der Gebäudeautomation haben einige Vorteile gegenüber verdrahteten Systemen, jedoch stellen sich den Herstellern als auch dem Anwender einige technologische Herausforderungen. So ist besonders dem Aspekt der Sicherheit vermehrt Aufmerksamkeit zu widmen, denn die funkbasierte Übertragung von Nachrichten bietet Angreifern eine Vielzahl an Möglichkeiten, die Grundwerte Integrität, Verfügbarkeit und Vertraulichkeit zu verletzen. Diese Magisterarbeit fasst die Anforderungen, Probleme und Eigenschaften von Wireless-Protokollen beim Einsatz in der Gebäudeautomation zusammen. Zunächst werden im Rahmen dieser Arbeit Anwendungsbeispiele erarbeitet, welche das Einsatzgebiet des Gebäudeautomations-Systems beschreiben. Weiters werden Kriterien definiert, die ein modernes Gebäudeautomations-System heute erfüllen muss. Darauf aufbauend werden relevante Protokolle vergleichend untersucht und eine tabellarische Zusammenfassung der wichtigsten Eigenschaften heute verfügbarer Protokolle erstellt. Anhand eines konkreten Anwendungsbeispiels, das spezifische Eigenschaften und Anforderungen an das System festlegt, konnte abschließend gezeigt werden, in welchen spezifischen Bereichen noch Entwicklungsbedarf besteht.

Diplomarbeitsposter Schaffer Gerd

Gerd Schaffer

Masterstudium Information & Knowledge Management
Abstract:

Keine Angaben

Diplomarbeitsposter Schanes Christian

Christian Schanes

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Abhängigkeit von IT-Systemen für Unternehmenszwecke nimmt laufend zu. Angriffe auf diese können die Anforderungen bezüglich Verfügbarkeit, Vertraulichkeit und Integrität der Daten stören und somit für das Unternehmen Verluste verursachen. Die Systeme müssen dabei derart abgesichert werden, dass der Aufwand für einen Angreifer höher ist als der entstehende Nutzen durch einen erfolgreichen Angriff. Die vorliegende Arbeit beschäftigt sich mit Penetrationstests, einer möglichen Testtechnik zur Überprüfung der Sicherheit von Infrastrukturen. Dabei führen Tester simulierte Angriffe durch, um vorhandene Schwachstellen im System zu ermitteln und die Ausnutzbarkeit darzustellen. Die Anwendung von Penetrationstests erfolgt beim laufenden System, wodurch auch Installations- und Konfigurationsfehler in der Betriebsumgebung ermittelt werden. Für eine umfangreiche Sicherheitsbetrachtung können Penetrationstests einen wichtigen Teil beitragen, um die Systeme abzusichern. Die Möglichkeiten und Limitierungen von Penetrationstests werden in dieser Arbeit anhand eines Anwendungsbeispiels dargestellt, indem ein Penetrationstestkonzept definiert wird. Dieses berücksichtigt erforderliche Testtechniken für die eingesetzten Technologien und diskutiert des Weiteren organisatorische Aspekte für die Durchführung.

Diplomarbeitsposter Schindler Paul

Paul Schindler

Masterstudium Medizinische Informatik
Abstract:

Bank / IT / Schnittstellen / INPAR / Integration / Legacy / Altsystem / Host / Mainframe / Web Services

Diplomarbeitsposter Sreerama Sai Giridhar

Sai Giridhar Sreerama

Masterstudium Software Engineering & Internet Computing
Abstract:

Gesundheitsakte / e-health / Elektronischen / Patienten / Akte/ health-IT / indien / informatik / EHR

Diplomarbeitsposter Sturmlechner Manfred

Manfred Sturmlechner

Masterstudium Software Engineering & Internet Computing
Abstract:

Musik ist nicht nur ein Unterhaltungsmedium, sondern stellt auch in der Kindesentwicklung eine sehr wichtige Komponente dar, da frühes Musizieren die kognitive Entwicklung auf überdurchschnittliche Weise positiv beeinflusst. Die vorliegende Arbeit befasst sich mit innovativen Interfaces für Musik, welche aus dem Forschungsbereich Tangible Computing stammen. Tangible User Interfaces (TUIs) dienen als Schnittstelle zwischen Anwender und digitalen Prozessabläufen. Eine Vielzahl an Applikationen im Bereich der digitalen Musikerzeugung bedient sich dieser Technologie. Eine fokussierte Recherche über TUI-Anwendungen von innovativen Interfaces für Musik soll ein grundlegendes Wissen schaffen. Dieses wird in weiterer Folge analysiert und im Bezug zur Wiederverwendung einzelner Module bewertet. Zusätzlich dienen pädagogische Grundlagen über die Bedeutung von Musik in der Kindesentwicklung, sowie allgemeine musikalische Wirkungsweisen zum besseren Verständnis der Thematik. Den Kernpunkt dieser Arbeit bildet die Entwicklung eines Prototyps, mit welchem Kinder im Vorschulalter unter Anwendung von TUIs digitale Musiksequenzen abspielen und speichern können. Ziel war es, ein innovatives Interface für Musik zu entwickeln, welches einige Funktionen bereits vorhandener Prototypen vereint. Eine abschließende Evaluierung gibt Aufschluss über etwaige Verbesserungen, wobei die angewandte Art von Technologie durchaus vom Teilnehmerkreis akzeptiert wurde, jedoch die Methoden teilweise als zu komplex erschienen. Weitere gesammelte Ergebnisse und auch Eindrücke sollen als Basis für Folgeprojekte dienen.

Diplomarbeitsposter Terczka Alexander

Alexander Terczka

Diplomstudium Informatik
Abstract:

Webdienste. Bei einem DDoS-Angriff wird ein Zielsystem mit Hilfe einer großen Zahl von Clients so stark belastet, dass legitime User die Services des Zielsystems nicht mehr benutzen können. Ein DDoS-Angriff verwendet dafür die gleichen Protokolle und Wege wie ein legitimer User und kann daher nur schwer erkannt werden. Gefährlichkeit eines DDoS-Angriffs liegt darin, dass er auch ein fehlerloses System treffen kann, da die Ressourcen eines Systems immer limitiert sind, aber die Ressourcen des Angreifers sehr groß sein können. Die Arbeit erklärt die für einen Webdienst notwendigen Protokolle IP, TCP und HTTP und zeigt deren Schwachstellen. Ausgehend von dieser Basis wird beschrieben welche Angriffe möglich sind und welche Auswirkungen sie auf die Servicestruktur haben. Von diesen Angriffsmethoden ausgehend werden mögliche Abwehrtechniken vorgestellt und in Hinblick auf ihre Effizienz untersucht. Diese Techniken kommen aus der Praxis, aus der Forschung und von kommerziellen Anbietern. Außerdem wurden im Rahmen dieser Arbeit eigene Methoden zu Abwehr entwickelt und als Prototyp implementiert. Die Besonderheit dieser Methoden liegt darin, dass jede einzelne gezielt einen bestimmten Angriffstyp abwehren kann. Eine Kombination unterschiedlicher Techniken bildet dadurch in Summe eine wirkungsvolle Abwehr, die die Auswirkungen eines Angriffs stark reduziert.

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Cvitkovich Andres

Andres Cvitkovich

Diplomstudium Informatik
Abstract:

Im Zuge dieser Arbeit wurde die Entwicklung an NEDINE vorangetrieben, ein von der EU gefördertes Projekt, das sich den grenzüberschreitenden Zusammenschluß von Nachrichtenagenturen zum Ziel gesetzt hat. Dabei gilt es, eine Vielzahl an Problemen in den Griff zu bekommen, die durch die räumliche aber auch sprachliche Trennung der Partner sowie deren unterschiedliche Geschäftsmodelle entstehen. Erst ein klar strukturiertes Modell mit sauberem Systementwurf basierend auf offenen Web services ermöglichen einen reibungslosen Betrieb des Gesamtsystems. Viele Probleme und Aspekte bei der Nachrichtenverteilung müssen jedoch erst einmal innerhalb einer nationalen Nachrichtenagentur berücksichtigt und gelöst werden, diese werden daher ebenfalls gründlich beleuchtet sowie Strategien aufgezeigt, mit denen man die anfallende Informationsflut auf eine Art und Weise löst, die auch gesteigerten Ansprüchen an Skalierbarkeit genügt. Im Rahmen des EU-Projekts NEDINE sollen technische Services von Nachrichtenagenturen mit ähnlichen Geschäftsfeldern zu einem europäischen Nachrichtennetzwerk integriert werden, beispielhaft werden die dazu benötigten Komponenten und Integrationsschritte bei der Pressetext Nachrichtenagentur GmbH ausführlich diskutiert, die in ähnlicher Form auch bei anderen aktuellen und künftigen Partnern des Projekts auftreten.

Diplomarbeitsposter Kaiser Hannes

Hannes Kaiser

Diplomstudium Informatik
Abstract:

WS - BPEL basierte Geschäftsprozesse zeichnen sich durch den Einsatz in heterogenen serviceorientierten Architekturen aus. Gängige Designmethoden separieren die Modellierung von Service Orchestrierungen von Sicherheitsanforderungen und den Rollendefinitionen der Geschäftsprozessteilnehmer. Als Konsequenz werden die entstehenden Wechselbeziehungen dieser beiden Geschäftsprozessanforderungen nicht im finalen Prozessmodell berücksichtigt. Diese Arbeit widmet sich der Analyse von Geschäftsprozessen unter den genannten Anforderungen, durch Berücksichtigung von WS Security basierten Web Services und BPEL4People - basierten Rollendefinitionen der Geschäftsprozessteilnehmer.

Diplomarbeitsposter Knoll Matthias

Matthias Knoll

Wirtschaftsinformatik
Abstract:

Die Business Process Execution Language (BPEL), als blockbasierte Sprache, hat sich in den letzten Jahren zu einem der Standards zur Spezifizierung von Prozessen etabliert. Die graphbasierte Business Process Modelling Notation (BPMN) wurde für den graphischen Entwurf von Prozessen entwickelt. Im Zuge eines einheitlichen Entwicklungsprozesses ist die automatische Transformation von BPMN Modellen zu BPEL Code wünschenswert. Diese Transformation ist jedoch Aufgrund fundamentaler Unterschiede der beiden Modellierungssprachen kompliziert, da BPMN und BPEL zwei unterschiedliche Ansätze zur Beschreibung des Kontrollflusses verwenden. Im Zuge dieser Diplomarbeit sollen diese Unterschiede erläutert und unterschiedliche Methoden erarbeitet werden, die, mit vertretbaren Einschränkungen, bestimmte Klassen von BPMN Modellen transformieren können. Diese sollen kombiniert und ein Ansatz zur Transformation einer großen Bandbreite von Modellen präsentiert werden.

Diplomarbeitsposter Krumpöck Markus

Markus Krumpöck

Diplomstudium Informatik
Abstract:

ausgerollt werden können. Die Vielfalt an verschiedenen Programmiersprachen und Technologien für die Implementierung dynamischer Webapplikationen sowie die Verfügbarkeit verschiedenster Frameworks und Template Engines verkomplizieren die Situation zusätzlich. Daher ist es Ziel dieser Diplomarbeit die Erstellung von “Best Practices” und eines Leitfadens, wie man besser wartbare Websites konzipieren und implementieren kann. Diese Arbeit wird versuchen welche Hauptpunkte bei der Konzipierung einer Website hinsichtlich Wartbarkeit und Skalierbarkeit hinsichtlich der Informationsarchitektur, des Layouts, der Webapplikationen usw. zu berücksichtigen sind und wie die Wartung mit vertretbarem Aufwand durchgeführt werden kann. Neue oder zusätzliche Funktionalität sollte hinzugefügt werden können ohne dass eine komplette Änderung der Architektur notwendig ist. In dieser Arbeit möchte ich zeigen wie Wartbarkeit in einer von 2003 bis 2008 durchgeführten Fallstudie erreicht wurde, wobei die Website nach dem Redesign basierend auf diesen Leitlinien aus etwa 6.700 Dokumente bestand und mittlerweile (Stand Juni 2008) auf über 55.000 Dokumente angewachsen ist.

Diplomarbeitsposter Oprsal Juraj

Juraj Oprsal

Masterstudium Software Engineering & Internet Computing
Abstract:

Replikation als wichtiger Mechanismus in Erzielung von Zuverl¨assigkeit verteilter Systeme ist bereits umfangreicher Forschung unterlegt gewesen. Verschiedene Ans¨atze die Erreichbarkeit w¨ahrend Systemdegradation (z.B. Netzwerktrennung) zu verbessern haben sich traditionell auf pessimistische Replikationsprotokolle konzentriert, welche Update-konflikte w¨ahrend Degradation vermeiden. Vor kurzem wurde eine neue Klasse an optimistischen Replikationsprotokollen vorgestellt, die weniger restriktiv als pessimistische Protokolle ist und die es erlaubt, Erreichbarkeit und Konsistenz eines Systems auszubalancieren. Es k¨onnen handelbare und nicht-handelbare Konsistenzbedingungen im System definiert werden, wobei die ersten w¨ahrend Systemdegradation gegen Erreichbarkeit gehandelt werden k¨onnen. Active Replication Per Partition Protocol (ARPPP) ist ein konkretes Replikationsprotokoll, das diese Balancierung anwendet. Es ist eine Modifikation der klassischen aktiven Replikation. In einem gesunden System fordert ARPPP strenge Konsistenz, also erlaubt keine Operation, die gegen eine beliebige Konsistenzbedingung stoßt. Im Falle eines Knotenausfalls oder einer Netzwerktrennung werden vor¨ubergehend alle handelbaren Konsistenzbedingungen von ARPPP aufgehoben und somit alle Operationen, die keine nicht-handelbaren Bedingungen betreffen, erlaubt, auch wenn die handelbaren Bedingungen verletzt werden k¨onnen. Nachdem das Netzwerk sowie alle Systemknoten heilen, wird strenge Konsistenz im System – w¨ahrend sogenannter Rekonciliation – wiederhergestellt. Die Kontribution dieser Arbeit ist die Prototypimplementierung und –evaluierung des ARPPP Replikationsprotokolls unter Microsoft .NET in der C# Programmiersprache. Basierend auf Eigenschaften des .NET Frameworks 2.0, unterst¨utzt der Prototyp sowohl Transaktionen, als auch geschachtelte Replikaaufrufe. Die Ergebnisse der Evaluierung indizieren, dass der zus¨atzliche Bedarf an ¨Uberpr¨ufen von Konsistenzbedingungen nicht nur einen...

Diplomarbeitsposter Pilani Sunil

Sunil Pilani

Diplomstudium Informatik
Abstract:

Bei Online-Auktionen von Bundesanleihen langt gewöhnlich eine große Anzahl von Geboten knapp vor der Auktions-Deadline ein, was zu einer unerwünschten Spitzenlast des Servers führt und die Verlässlichkeit gefährdet. Diese Arbeit beschäftigt sich mit einer Proof of Concept Architektur und deren Implementierung für höhere Verlässlichkeit in Web-basierten Online-Auktionen von hohem Emissionsvolumen an Bundesanleihen, indem die Höchstbelastungen, die im Rahmen der Versteigerung auftreten, und somit die Hardware-Kosten reduziert werden. Die Architektur basiert auf dem Prinzip, dass Spitzenbelastungen vermieden werden können, wenn die Annahme der Gebote auf eine gewisse Zeitspanne verteilt wird, sogar über die Auktions-Deadline hinaus. Um dieses Ziel zu erreichen, kommuniziert die Auktions-Webapplikation mit einer Smart Card seitens des Clients, um den Auktionsgeboten einen verlässlichen Zeitstempel zuzuordnen und sie mit zufälliger Zeitverzögerung dem Server zu übermitteln. Die Proof of Concept Prototyp Implementierung zeigt, dass dies einen möglich Zugang darstellt. Die Zeit, die benötigt wird, um einen verlässlichen Zeitstempel hinzuzufügen und eine Signatur auf der Smart Card zu generieren, ist minimal. Evaluierungsergebnisse zeigen, dass schon mit den geringen zeitlichen Unkosten einer Smart Card Applikation, ein Online-Auktionssystem entwickelt werden kann, das verlässlicher ist als die existierenden Systeme.

Diplomarbeitsposter Schmied Gernot Walter

Gernot Walter Schmied

Masterstudium Informatikmanagement
Abstract:

Diese Publikation beschäftigt sich mit hybriden Netzwerkarchitekturen auf Basis von UNIX-Betriebssystemen, Linux, BSD und Cisco, somit mit Aspekten der Signalisierung (Routing) und des Forwardings. IPv4, IPv6 und Multicast-Routing werden behandelt.

Diplomarbeitsposter Ulbing David

David Ulbing

Masterstudium Software Engineering & Internet Computing
Abstract:

Web Service, Semantics, Lookup, Description, Distributed Systems

Diplomarbeitsposter Uzun Serkan

Serkan Uzun

Masterstudium Informatikmanagement
Abstract:

Die Informationstechnologien haben sich mit den Möglichkeiten des freien Zugriffs, dank des jedermann zugänglichen Internet, rasant entwickelt. Die Fülle an Informationen, die sich stetig erweitert, macht Datenbanken zu einem Muss, um einen Überblick über das angebotene Wissen zu bewahren. Auch im beruflichen Alltag ist ein effizientes Weiterkommen nur durch die richtige Verwaltung der Daten und des Wissens gesichert. Da die Menge an Informationen ständig wächst, wird es für die Anwender immer schwieriger, an das gewünschte Ziel zu gelangen. Aber auch ein fortschrittliches Informationssystem kann oft durch seine Mängel das Erwünschte nicht optimal vermitteln. Die vorliegende Arbeit setzt sich mit der Web Usability von Informationssystemen auseinander. Vom Erscheinungsbild bis zum Inhalt, von der Strukturierung bis zur Erreichbarkeit, aus technischer wie auch aus gestalterischer Sicht, wurde analysiert, was einem Benutzer beim Erlangen seiner gesuchten Informationen hilft oder was ihn daran behindert. Als Themenschwerpunkt dienen medizinische Datenbanken, die zuerst im Allgemeinen definiert werden, und anschließend an drei Fallbeispielen aus der Sicht der Web Usability konkret analysiert werden. Das Ziel dieser Arbeit ist es, Kriterien herauszuarbeiten, die zu einer effektiven und effizienten Nutzung von Informationssystemen beitragen. Anhand mehrerer Blickpunkte in dieses Themengebiet soll gezeigt werden, wie vielfältig gearbeitet werden muss, wenn ein benutzergerechtes Informationssystem gestaltet werden soll, und was für Auswirkungen es haben kann, falls man diese Kriterien nicht beachtet. Die detaillierten Analysen der drei Fallbeispiele, die auch graphisch dargestellt sind, sollen zur Unterstützung des Zieles dienen und zeigen, welche Auswirkungen aus Sicht der Web Usability zu erwarten sind.

Diplomarbeitsposter Weisl Wilfried Hugo

Wilfried Hugo Weisl

Diplomstudium Informatik
Abstract:

Die Sicherstellung von Compliance mit Hilfe von Kontrollen ist ein Thema mit dem sich Organisationen weltweit auseinandersetzen müssen. Aus diesem Grund beschäftigt sich diese Arbeit mit Kontrollaspekten in Geschäftsprozessen. Die Basis dafür bilden modellgetriebene Software Entwicklung (MDSD) und serviceorientierte Architekturen (SOA). Der Fokus dieser Arbeit liegt auf der Definition eines Meta-Modells für Kontrollen in Geschäftsprozessen, dessen Hauptziel es ist, Compliance Kontrollen zu dokumentieren. Dies ermöglicht die Erweiterung von Geschäftsprozess-Modellen um spezifische Informationen hinsichtlich Kontrollen. Neue Einsatzmöglichkeiten ergeben sich: Web Services und BPEL Prozesse lassen sich als Kontrollen klassifizieren und beschreiben. Compliance Anforderungen und Risken können mit Kontrollen assoziiert werden. Die Suche nach Kontrollen und Kontrollelementen wird unterstützt. Aufbauend auf einem View-based-Modeling-Framework (VbMF) erweitert das Modell für Kontrollen eine Reihe von existierenden und unterschiedlichen Modellen. Im VbMF repräsentiert jedes der Modelle eine andere Ansicht auf einen Geschäftsprozess. Der Einsatz von MDSD Technologie im VbMF ermöglicht das Generieren von Code durch Verwendung von einem oder mehreren Modellen als Input. Mögliche Einsatzszenarien des generierten Outputs wären die Dokumentation von Kontrollen in Form von Webseiten, Webservices die Kontrollen repräsentieren (in Java implementiert), technische Beschreibung von Webservices (WSDL), sowie ausführbare, um Kontrollen erweiterte Prozessspezifikationen in BPEL. Die Anwendbarkeit des Kontrollmodells wird validiert, indem Kontrolldokumentation aus Modellen generiert wird.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Darmaputra Yansen

Yansen Darmaputra

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

A meta-search engine is a search engine that forwards user query to several other search engines and aggregates the results. In flight search domain, meta-search engine has some inherent weaknesses. They can not find all routes from low-cost airlines and they don’t support the concept of mixing flights between airlines in different alliances. This thesis proposes a mashup solution for the problem. A mashup application uses data from other resources (called content provider) to create a new application with new feature and functionality that is not offered by any of the content provider. In the flight search system that we build, the data are originated from airline websites. Extracting data from the Web has several obstacles such as password-protected sites, cookies, JavaScript, Session IDs, Web forms iterations, deep Web navigation, and dynamic changes on websites. We use wrapper generation technology from Lixto to solve the obstacles and do the data extraction. Some data cleaning method is also performed to the wrapper output to clean unnecessary annotations. In the algorithm, flight search problem is regarded as graph search problem with airports as the nodes and pair of airports where exist direct flights between them as the edges. We introduce hub identification heuristic concept to ensure system’s scalability. Instead of analyzing and evaluating all possible routes to reach the destination, this heuristic only evaluates a fraction of all possible combinations that possibly contain the best routes.

Diplomarbeitsposter Kofler Mario

Mario Kofler

Diplomstudium Informatik
Abstract:

Mit der Entwicklung von E-Government und umfangreicher Geschäftsabwicklung mit Hilfe des World Wide Webs erfreuen sich Anwendungsserver immer größerer Beliebtheit. Einfache Webserver Lösungen erweisen sich oft als unzureichend im Hinblick auf Nutzbarkeit und Skalierbarkeit. Mit zunehmender Anzahl, gleichzeitig zu erwartender Benutzer, erhöht sich der Bedarf an Replikation und anderen performancesteigernden Techniken. Weiters sollte eine Schichtenarchitektur in Betracht gezogen werden, welche klar zwischen den verschiedenen Komponenten einer Anwendung unterscheidet. Die Java Platform Enterprise Edition (Java EE) legt eine derartige Schichtenarchitektur nahe. Zusätzlich zu Java EE Applikationsservern von großen kommerziellen Anbietern erweisen sich in letzter Zeit auch Open Source Varianten als wettbewerbsfähig. Diese Arbeit vermittelt die Konzepte des Java EE Frameworks und gibt einen Überblick über Anwendungsserver. Dabei wird näher auf die Enterprise Java Bean (EJB) 3.0 Technologie eingegangen, welche eine komfortable Möglichkeit bietet, Geschäftsanwendungen für das Java EE Framework zu erstellen. Nach einer detaillierten Behandlung der einzelnen Serverkonfigurationen wird die EJB Performanz mit Hilfe einer Testanwendung und einfachen Geschäftsszenarien untersucht. Das Hauptaugenmerk liegt auf den momentan wichtigsten Open Source Anwendungsservern Geronimo, JBoss und Glassfish. Performanztests beschränken sich auf die Benutzung von EJB 3.0 innerhalb einer Geschäftsanwendung. Andere Anwendungsbereiche, wie die Veröffentlichung als Web Service, werden außer Betracht gelassen. Im Laufe der Analyse werden Einzelserver getestet, Clusterbildung mit mehr als einer Serverinstanz wird jedoch nicht behandelt. Diese Arbeit dient als Entscheidungshilfe für Unternehmen, welche den Einsatz von EJB 3.0 in Verbindung mit einem Open Source Anwendungsserver in Betracht ziehen.

Diplomarbeitsposter Kulnigg Martin

Martin Kulnigg

Wirtschaftsinformatik
Abstract:

Das Communication Center ist ein Fernüberwachungs- und Steuerungsgerät mit eingebauten GSM Modem, das zum Messen von Daten und zum Steuern von Geräten eingesetzt werden kann. Die Verwaltung der Geräte erzeugt in Szenarien, in denen mehrere Communication Center dezentral eingesetzt werden, einen erheblichen Aufwand. Um die Geräteeinstellungen zu ändern, müssen sie entweder vor Ort aufgesucht oder über das GSM Modem fernkonfiguriert werden. Die gemessenen Daten können nicht kumuliert aus den Geräten ausgelesen werden und somit ist die Beobachtung der Daten über einen längeren Zeitraum schwierig. Es soll eine Webapplikation entwickelt werden, die diese Probleme löst und die Verwaltung der Geräte vereinfacht. Die Geräte sollen über ein benutzerfreundliches Webinterface wartbar sein und sollen aus der Applikation heraus automatisiert konfiguriert werden. Um das Problem der Datenaufzeichnung zu lösen, soll eine Funktionalität zum automatischen Auslesen und Speichern der aufgezeichneten Daten geschaffen werden. Diese Daten sollen in ein Standardformat wie Excel exportierbar sein und statistisch ausgewertet werden können. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung der Applikation, sie beschreibt diesen Prozess von den technischen Grundlagen, über die Analyse bis hin zur fertigen Applikation.

Diplomarbeitsposter Mager Andreas

Andreas Mager

Diplomstudium Informatik
Abstract:

Informationsextraktion / Semantisches Web / Webformulare / Textklassifikation

Diplomarbeitsposter Ostrcil Richard

Richard Ostrcil

Diplomstudium Informatik
Abstract:

Das Gebiet der probabilistischen und ungewissen Datenbanken ist seit über einem Jahrzehnt Gegenstand der Forschung und gewinnt durch aktuelle Anwendungen zunehmend an Bedeutung. Beispiele dieser Anwendungen sind. die Zusammenführung unterschied­licher Datenbestände mit umfangreichen und komplexen Strukturen, die Auswertung fehlerbehafteter Sensordaten (z.B. RFID), die Speicherung von Ergebnissen von genetischen Sequenzierungen und Anwendungen wie Google Base. Ungewisse Datenbanken enthalten für zumindest einen Datensatz mehrere Möglichkeiten, die aber nicht gleichzeitig zutreffen können. Man spricht in diesem Zusammenhang von mehreren „möglichen Welten“, die auf diese Weise dargestellt werden. Eine klassische Datenbank besitzt nur eine Ausprägung und damit gibt es für diese auch nur eine mögliche Welt. Probabilistische Datenbanken enthalten zusätzlich zu den alternativen Möglichkeiten auch eine Information darüber, mit welcher Wahrscheinlichkeit eine Alternative eintritt. Für den Benutzer einer probabilistischen Datenbank soll es keinen Unterschied in der Schnittstelle im Vergleich zu klassischen Datenbanksystemen geben. Die Herausforderung besteht in der Repräsentation der Daten in ungewissen Datenbanken. Es ist aus Speicherplatzgründen unmöglich, alle möglichen Welten für sich zu speichern. Es muss daher nach Verfahren gesucht werden, wie derartige Datenbanken in kompakter Form repräsentiert werden können. Auch für die Operationen Abfrage und Änderung gilt es, transformierte und äquivalente Operationen zu finden, die direkt auf die kompakte Repräsentation angewandt werden, da eine Anwendung dieser Operationen auf alle möglichen Welten aus Zeit- und Aufwandsgründen ausscheidet. Die Arbeit bietet eine Zusammenschau von drei verbreiteten Verfahren, die in der Literatur für die Repräsentation von derartigen Datenbanken vorgeschlagen wurden. Das Resümee gibt eine Empfehlung für eine der Darstellungen und für zukünftige Untersuchungen.

Diplomarbeitsposter Singewald Christoph

Christoph Singewald

Diplomstudium Informatik
Abstract:

monadic,tree decomposition,SAT

Diplomarbeitsposter Steiner Lukas

Lukas Steiner

Wirtschaftsinformatik
Abstract:

In der heutigen Zeit wird es für große Unternehmen, die eine Vielzahl an verschiedenen Arbeitsprozessen zu koordinieren haben, immer wichtiger in jedem Segment ihres Aufgabenbereiches eine möglichst effiziente Softwarelösung zu haben. Um jedoch nur wenige Ressourcen bei der Benutzung dieser Programme zu verbrauchen, werden dringend neue Technologien benötigt, die den Anwendern eine Erleichterung und Hilfestellung bei der Nutzung bieten sollen. Diese Diplomarbeit zeigt einen realisierbaren Lösungsansatz auf, welcher nicht nur die technische Integration und Kommunikation von verschiedenen Unternehmensanwendungen berücksichtigt, sondern auch für die Benutzung dieser Applikationen einen möglichst anwenderorientierten und ressourcenschonenden Weg mit einbezieht. Im Rahmen eines Forschungsprojektes, wurden die Voraussetzungen für eine Systemlandschaft geschaffen, welche die Verarbeitung und Darstellung von automatisiert extrahierten Informationen in einem für industrielle Zwecke geeignetem Szenario simuliert. In dieser Forschungsumgebung wurden unterschiedliche Technologien zur Systemintegration und -transformation evaluiert und anschließend in dem für die Automobilindustrie sehr wichtigen Bereich der Qualitätssicherung umgesetzt, wobei auch der Schwerpunkt auf eine systemunabhängige Darstellung gelegt wurde. Das Projekt wurde im Forschungsverein Electronic Commerce Competence Center – EC3 unter dem Namen „in2ex - Case Study Integration mit SAP Portal“ publiziert und schenkt den Technologien der Firmen SAP und Lixto besondere Berücksichtigung.

Diplomarbeitsposter Triska Markus

Markus Triska

Masterstudium Computational Intelligence
Abstract:

sports scheduling,combinatorial design, finite geometry, discrete optimisation, constraint solving

Diplomarbeitsposter Wimmer Engelbert

Engelbert Wimmer

Masterstudium Business Informatics
Abstract:

e-Learning / Kompetenzmanagement / Kompetenzmanagementsystem

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Feder Alexander

Alexander Feder

Masterstudium Computational Intelligence
Abstract:

Emotionen spielen eine zentrale Rolle in unserem Leben, dennoch wurden sie bis noch vor kurzem im Bereich der KI ignoriert. Dies änderte sich durch die Entstehung des neuen Forschungsgebietes Affective Computing. Dieses behandelt hauptsächlich die Erkennung und die Synthese von Emotionen. Diese Arbeit liefert einen Überblick über manche der Methoden des Affective Computings, einschliesslich diverser Theorien zur menschlichen Emotion sowie relevante Emotionsmodelle zur Anwendung in Agentensystemen. Weiters wird -- aufbauend auf einem speziellen hormonellen Emotionsmodell -- eine Anwendung zur Verkehrssimulation mit emotionalen Agenten vorgestellt, die im Zuge dieser Arbeit entwickelt wurde. Mit diesem Modell haben die Agenten die Möglichkeit sich glücklich, traurig, zornig oder ängstlich zu "fühlen" -- Zustände, die ihr Fahrverhalten beeinflussen. Experimente mit dieser Simulation bestätigen Erkenntnisse aus der Verkehrspsychologie; so konnte mit verschiedenen Persönlichkeitstypen reproduziert werden, dass Emotionen einen negativen Einfluss auf das Fahrverhalten und somit auf die Staubildung haben.

Diplomarbeitsposter Leder Sonja

Sonja Leder

Diplomstudium Informatik
Abstract:

in Medicine" (DICOM) für den Austausch radiologischer Bilddaten. Darüberhinaus vereint die Initiative "Integrating the Healthcare Enterprise" (IHE) diese Standards in ihren Integrationsprofilen. IHE beschreibt den Zugriff auf elektronische Patientendaten zwischen Gesundheitsdiensteanbietern in den Profilen "Cross-Enterprise Document Sharing" (XDS) und "Cross-enterprise Document Sharing for Imaging" (XDS-I). Unter Berücksichtigung dieser Profile werden die verschiedenen Schnittstellen, die ein Archiv anbieten muss, entworfen. Im einzelnen handelt es sich um die Schnittstelle vom Archiv zum Dokument, zum Krankenhausinformationssystem, zum Viewer und zur Datenbank. Patientenbezogene Gesundheitsdaten sind besonders sensibel und schutzwürdig, daher muss bei der Realisierung auch der Datenschutz und die Datensicherheit berücksichtigt werden. Der Schutz personenbezogener Daten ist ein Grundrecht und in den verschiedensten Gesetzen geregelt. So müssen bei der Verarbeitung bestimmte Richtlinien, die in den allgemeinen Grundsätzen beschrieben sind, eingehalten werden. DOMAIN, ein Multimediaarchiv der Firma SIEMENS, zeigt ein Beispiel aus der Praxis. Abschließend werden die Initiativen zur geplanten österreichischen Patientenakte ELGA ("Elektronischer lebensbegleitender Gesundheitsakt") beleuchtet.

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Fellnhofer Andreas

Andreas Fellnhofer

Masterstudium Technische Informatik
Abstract:

Automatisch generierte Entwicklungswerkzeuge können einen wesentlichen Beitrag leisten, den Entwurfszyklus von anwendungsspezifischen Embedded Prozessoren zu verkürzen und zuverlässigere Abschätzungen über das Laufzeitverhalten von Hardware/Software-Systemen zu treffen. Ergebnisse aus Testläufen eines generierten Simulators zum Beispiel sind ein probates Mittel um aus den unzähligen Alternativen bei der Hardware Entwicklung passende Kompromisse zu wählen. Architekturbeschreibungssprachen, die Eigenschaften von Prozessoren auf einer mittleren Abstraktionsebene formalisieren, werden von Generatoren verwendet um Software Werkzeuge zu generieren. Die xADL, als ein Vertreter dieser Sprachen, wurde auf der TU Wien am Institut für Computersprachen entwickelt und ist strukturbasiert. Sie ermöglicht die Generierung einer weiten Palette an Software (z.B. Simulatoren und Compiler) durch ein Framework, das die Architekturbeschreibung vorverarbeitet und Module zur Weiterverarbeitung vorsieht. Hier setzt die vorgestellte Arbeit an. Es wird eine Methode vorgestellt, die es erlaubt, xADL Beschreibungen in zyklengenaue Simulatoren zu übersetzen und eine konkrete Implementierung in Form eines (nicht zyklengenauen) Generator Moduls beschrieben. Des Weiteren präsentiert die vorliegende Arbeit eine Technik um Instruktionsdecoder, wie sie für Simulatoren üblicherweise benötigt werden, zu generieren.

Diplomarbeitsposter Keszthelyi Laszlo

Laszlo Keszthelyi

Diplomstudium Informatik
Abstract:

Aufgrund der steigenden Nachfrage an jedem Ort zu jeder Zeit Zugriff auf Informationen zu haben, sind verteilte Systeme heutzutage wichtiger als sie es noch in der Vergangenheit waren. Viele der eingesetzten verteilten Systeme haben bedeutende Einschränkungen, wie zum Beispiel dass beide Kommunikations-Partner sich kennen und zur gleichen Zeit erreichbar sein müssen. Diese Probleme werden durch z.B. Space-basierte Systeme angesprochen, welche eine Entkoppelung von Zeit und Raum mittels eines so genannten gemeinsamen Space ermöglichen. Die von Sun Microsystems entwickelte JavaSpaces-Technologie und das am Institut für Computersprachen der Technischen Universität Wien entwickelte eXtensible Virtual Shared Memory (XVSM) sind solche auf Space basierende Systeme. Diese Diplomarbeit befasst sich mit dem Design und der Implementierung des JavaSpaces-API-Standard für XVSM, unter Verwendung von MozartSpaces, der Java-basierenden Open-Source-Implementierung des XVSM Modells. Die Implementierung soll durch die Entwicklung eines ``Vermittlers'' realisiert werden, der die Zusammenarbeit zwischen dem JavaSpaces-API-Standard und MozartSpaces ermöglicht. Als Ergebnis sollen bereits existierende JavaSpaces basierende Systeme und Applikationen MozartSpaces verwenden können, ohne die Notwendigkeit der Anpassung oder des Neu-Schreibens ihres Quellcodes. Weiters soll mit der Implementierung die Flexibilität und die Erweiterbarkeit von MozartSpaces demonstriert werden.

Diplomarbeitsposter Löwenstein Bernhard

Bernhard Löwenstein

Diplomstudium Informatik
Abstract:

In der heutigen IT-Welt sind viele unterschiedliche Middlewaresysteme verfügbar. Oftmals verkünden die Anbieter solcher Anwendungen, dass ihr Produkt die beste Performance und Skalierbarkeit aufweist, und überhaupt das Beste von allen sei. Diese Arbeit veranschaulicht, wie man die Performance und Skalierbarkeit unterschiedlicher Middlewaresysteme auf realistische Art und Weise messen und vergleichen kann. Die Benchmarks dazu werden anhand einiger maßgeschneiderter Testfälle durchgeführt. Der erste Teil der Arbeit gibt eine ausführliche Einführung in die Begriffe Benchmark, Performance, Skalierbarkeit und Middleware und präsentiert drei verschiedene Middlewarekonzepte: eXtensible Virtual Shared Memory (XVSM), JavaSpaces und Java 2 Plattform, Enterprise Edition (J2EE). Im zweiten Teil werden einige Benchmarkszenarien für die zugehörigen Systeme MozartSpaces, GigaSpaces eXtreme Application Platform (XAP) und JBoss Application Server (AS) definiert und durchgeführt. Die Ergebnisse ihrer Ausführung werden anschließend visualisiert und interpretiert.

Diplomarbeitsposter Oates Carolyn

Carolyn Oates

Diplomstudium Informatik
Abstract:

Obwohl virtuelle Methoden in objektorientierten Programmiersprachen beim Aufruf an viele unterschiedliche Definitionen gebunden werden können, wird oft nur eine Methodendefinition wirklich verwendet. Der Einsatz von Analysealgorithmen zur Bestimmung des statischen Typs in einer Java Virtual Machine (JVM), um konservativ die erreichbaren Klassen und Methoden abzuschätzen, kann einem Übersetzer mehr Möglichkeiten zur Optimierung geben. Das Laden von Klassen bei Bedarf in der JVM hat dynamische Analyse mit Profiling zur Laufzeit gefordert. Die Typ-Analyse Algorithmen CHA, RTA, XTA, und VTA wurden in CACAO verglichen. CACAO ist eine Forschungs-JVM, die an der Technischen Universität Wien entwickelt wird. Drei Modi wurden getestet: statische Analyse (SA), dynamische Analyse (DA), und eine neue hybride Analyse (HPA). Alle Algorithmen bauen ihre Klassendatenflussdiagramme (CFGs) dynamisch während der Analyse auf. Klassen werden nach Bedarf geladen. Daher müssen alle Analysen das Einfügen von zusätzliche Klassen in ihre Klassenhierarchien behandeln. Die Notwendigkeit von Devirtualization für Inlining und die Implementierung von Inlining in CACAO wird diskutiert. Je weniger überflüssige Klassen geladen sind, desto besser ist die Genauig-keit der Analysen und desto kürzer die Laufzeit der Analysealgorithmen. VTA ist am genausten mit der kleinsten Zahl unnötig geladener Klassen und erreichbarer Methoden. HPA lädt weniger Klassen und liefert genauere Ergebnisse als SA. Zwischen RTA, XTA, und VTA war es nicht entscheidbar, welcher Algorithmus am schnellsten ist, aber XTA verwendet am wenigsten Instruktionen. Höhere Kosten, um mehr Genauigkeit aus der Analyse zu holen, werden durch eine geringere Zahl erreichbarer Methoden ausgeglichen.

Diplomarbeitsposter Rigler David

David Rigler

Masterstudium Technische Informatik
Abstract:

Automatisch generierte Entwicklungswerkzeuge können einen wesentlichen Beitrag leisten, den Entwurfszyklus von anwendungsspezifischen Embedded Prozessoren zu verkürzen und zuverlässigere Abschätzungen über das Laufzeitverhalten von Hardware/Software-Systemen zu treffen. Ergebnisse aus Testläufen eines generierten Simulators zum Beispiel sind ein probates Mittel um aus den unzähligen Alternativen bei der Hardware Entwicklung passende Kompromisse zu wählen. Architekturbeschreibungssprachen, die Eigenschaften von Prozessoren auf einer mittleren Abstraktionsebene formalisieren, werden von Generatoren verwendet um Software Werkzeuge zu generieren. Die xADL, als ein Vertreter dieser Sprachen, wurde auf der TU Wien am Institut für Computersprachen entwickelt und ist strukturbasiert. Sie ermöglicht die Generierung einer weiten Palette an Software (z.B. Simulatoren und Compiler) durch ein Framework, das die Architekturbeschreibung vorverarbeitet und Module zur Weiterverarbeitung vorsieht. Hier setzt die vorgestellte Arbeit an. Es wird eine Methode vorgestellt, die es erlaubt, xADL Beschreibungen in zyklengenaue Simulatoren zu übersetzen und eine konkrete Implementierung in Form eines (nicht zyklengenauen) Generator Moduls beschrieben. Des Weiteren präsentiert die vorliegende Arbeit eine Technik um Instruktionsdecoder, wie sie für Simulatoren üblicherweise benötigt werden, zu generieren.

Diplomarbeitsposter Ring Stefan

Stefan Ring

Diplomstudium Informatik
Abstract:

Eines der wichtigsten Leistungsmerkmale von Java, die Fähigkeit zur Ausführung und Synchronisation paralleler Threads, benötigt recht umfangreiche Unterstützung durch die Implementierung einer Java Virtual Machine (JVM). Diese Arbeit beschreibt die wesentlichen Schritte, die benötigt werden, um die CACAO JVM um diese Fähigkeit zu erweitern. Zunächst werden die notwendigen Schritte für die Umsetzung des Java Memory Model erörtert. Weiters wird die Wahl eines Algorithmus für Java Monitore sowie mögliche zukünftige Erweiterungsmöglichkeiten präsentiert. Außerdem werden einige experimentelle Varianten auf verschiedenen Hardwarearchitekturen verglichen. Zusätzlich wird der von CACAO zur Typüberprüfung verwendete Algorithmus durch eine Methode ersetzt, die besser zur Verwendung in parallelen Javaprogrammen geeignet ist, sowie deren Auswirkungen auf Laufzeit und Speicheranforderungen überprüft.

Diplomarbeitsposter Röck Dominik

Dominik Röck

Masterstudium Software Engineering & Internet Computing
Abstract:

Aktuelle Recherchen zeigen, dass bereits eine Vielzahl an Aufgabenmanagement Systemen existiert. Während einige dieser Systeme eine Verteilung per E-Mail unterstützen, bietet der Großteil der Anwendungen weder eine gemeinsame Nutzung der Inhalte noch eine Synchronisierung dieser. Aufbauend auf diesen Erkenntnissen und unter Berücksichtigung der menschlichen Arbeits- und Denkweise soll diese Diplomarbeit einen Ansatz bieten, der die bestehenden Nachteile beseitigt und ein benutzerfreundliches System zur Verwaltung von Aufgaben und Informationen liefert. Dabei soll der Mensch in allen Situationen des täglichen Lebens unterstützt werden. Sei es, dass er beispielsweise an Aufgaben erinnert wird, um Ad-hoc-Abläufe abzubilden, oder um lediglich wichtige Daten permanent zu speichern. Insbesondere werden in dieser Arbeit die menschlichen Verknüpfungen des Gehirns berücksichtigt und genauer analysiert, um eine möglichst präzise Vorstellung von deren Einprägungs- sowie Erinnerungsverhalten zu bekommen. Diese Erkenntnisse werden dann im Aufgaben- und Informationsmanagement System anwenderfreundlich abgebildet, um die Auffindbarkeit der Daten zu erleichtern und das Arbeiten mit dem System so benutzerfreundlich wie möglich zu gestalten.

Diplomarbeitsposter Scheller Thomas

Thomas Scheller

Masterstudium Software Engineering & Internet Computing
Abstract:

XVSM / SBC / Spaces / Architektur / Koordination / Aspekte / .Net

Diplomarbeitsposter Wiedermann Peter

Peter Wiedermann

Masterstudium Technische Informatik
Abstract:

instruction selection code generation pbqp llvm

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Beyreder Markus

Markus Beyreder

Diplomstudium Informatik
Abstract:

Der Formalismus der P-Systeme wurde vor etwa zehn Jahren von Gheorghe Paun unter dem Namen Membransysteme eingeführt, und erst vor Kurzem wurden neue Ableitungsmodi und Haltebedingungen eingeführt. Zur Entwicklung vergleichbarer Resultate war die Entwicklung einer formalen Beschreibung ihrer Funktionsweise, im Speziellen eines Ableitungsschrittes, notwendig. Ein allgemeines formales Modell von Netzwerken von Zellen wurde eingeführt, um die wesentlichen Charakteristika von statischen (gewebeähnlichen) P-Systemen zu erfassen und ihre Funktionsweise in einer formalen Weise zu definieren. In dieser Diplomarbeit wird das formale Modell um einige neue Beispiele sowie neue Haltebedingungen und Ableitungsmodi erweitert. Mit nichthaltenden Berechnungen, kann man sogar über die Grenzen der Turing-Berechenbakeit hinausgehen. P-Systeme mit kontextfreien Regeln und dem maximal parallelen Ableitungsmodus charakterisieren Familien von Mengen natürlicher Zahlen die durch Lindenmayer-Systeme definiert sind, wenn man die Resultate in einer spezifischen Output-Zelle in jedem Ableitungsschritt während einer beliebigen Ableitung betrachtet. Mit dem neuen Ableitungsmodus des 1-beschränkten minimalen Parallelismus kann man erweiterte neurale P-Systeme sowie rein katalytische P-Systeme als Netzwerke von Zellen modellieren.

Diplomarbeitsposter Roschger Christoph

Christoph Roschger

Masterstudium Computational Intelligence
Abstract:

Formale Dialogspiele werden schon seit langem dazu verwendet, die Semantik verschiedener Logiken zu charakterisieren. In den 70er Jahren präsentierte Robin Giles seinen Versuch, eine operationale Grundlage für formales Schließen zu definieren, basierend auf atomaren Experimenten, welche Dispersion aufweisen können. Diese Masterarbeit motiviert und beschreibt seinen Ansatz und die Verbindung zu t-Norm-basierten Fuzzy-Logiken. Wir geben eine kurze Einführung in t-Normen und mehrwertige Fuzzy-Logiken, die auf diese Bezug nehmen. Im Speziellen liegt der Schwerpunkt auf drei solchen fundamentalen Fuzzy-Logiken: Lukasiewicz-Logik, Gödel-Logik und Produkt-Logik. Verschiedene Möglichkeiten, die Spielregeln von Giles' Spiel zu ändern, um dieses adäquat für Gödel- und Produkt-Logik zu machen, werden präsentiert und diskutiert. Darüber hinaus beschreiben wir die starke Verbindung zwischen Gewinnstrategien im Spiel und Ableitungen in einem analytischen Kalkül, der auf relationalen Hypersequenten basiert. Eine andere Art von Dialogspielen sind sogenannte "Truth Comparison Games". Diese sind besonders geeignet für Gödel-Logik, da sie der gradbasierten Semantik der Gödel-Logik mehr entsprechen als Giles' Spiel. Wir präsentieren das Spiel und diskutieren Gewinnstrategien für beide Spieler, welche als Beweis für die Gültigkeit oder Widerlegbarkeit einer Formel gesehen werden können. Zusätzlich werden mehrere Hilfsprogramme vorgestellt, die im Kontext dieser Masterarbeit entwickelt wurden. Darunter befindet sich auch eine webbasierte Anwendung zur interaktiven Exploration von Giles' Spiel und dessen Erweiterungen.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Berger Franz

Franz Berger

Diplomstudium Informatik
Abstract:

Hybrid Method / Varaiable Neighbourhood Descent (VND) / manually torn document pages

Diplomarbeitsposter Bonitz Christoph

Christoph Bonitz

Masterstudium Computational Intelligence
Abstract:

Dynamische Programmierung / Allokationsprobleme / Nachbarschaftssuche

Diplomarbeitsposter Dietzel Olivia

Olivia Dietzel

Masterstudium Computational Intelligence
Abstract:

A biometric template contains biometric traits belonging to a certain person, like e.g. fingerprints or the facial structure. Especially for verification purposes such human characteristics become ever more important. In order to recognize a person by means of his biometric traits a reference template must be available, which can be stored in a database and also on a RFID chip. With regard to mobile storage media, and thus only a small amount of memory, there is a need for the compression of biometric templates. This compression may be lossy, possible errors in the recognition however should be kept as small as possible. In this Master's Thesis in particular a new approach for the compression of fingerprint templates is developed. These templates contain information about the positions and orientations of the so-called minutiae, i.e. the endings and bifurcations of the dermal papillae. In turn this information is represented in the form of points of a d-dimensional coordinate system, and thus can be conceived as nodes of a graph. Hence, the focus of this thesis lies on the study of graph-based approaches. The basic idea is to store the difference vectors between always two points instead of the minutiae. For this purpose directed spanning trees allow an efficient encoding. Hence in the course of this thesis different approaches based on specific spanning trees, like e.g. the directed minimum spanning tree, the directed minimum label spanning tree and the directed weight balanced spanning tree, have been studied, and a compression of up to approximately 20% could be achieved.

Diplomarbeitsposter Knausz Markus

Markus Knausz

Diplomstudium Informatik
Abstract:

Keine Angaben

Diplomarbeitsposter Morandell Wolfgang

Wolfgang Morandell

Masterstudium Software Engineering & Internet Computing
Abstract:

In meiner Masterarbeit arbeite ich die Wiederherstellung von durch Shredder zerstörter Textdokumente aus. Im Gegensatz zu herkömmlicher Dokumentenwiederherstellung - die auf Farb- oder Umrissinformationen beruht - ist die Wiederherstellung von Textdokumenten noch nicht eingehend untersucht worden. Normalerweise werden Papierdokumente mittels Shredder zerstört, d.h. in längliche Papierstreifen zerlegt. In dieser Arbeit wird versucht, diesen Prozess rückgängig zu machen. Zuallererst beschreibe ich die Problemstellung formal. Als nächstes werde ich eine Möglichkeit aufzeigen wie Lösungen zu diesem Problem eingeschätzt werden können. Weiters werden eine Reihe von Verbesserungsstrategien vorgestellt, die bei der Evaluierung helfen. Definierte Konstruktionsheuristiken ermitteln gute Lösungen innerhalb kurzer Zeit. Mittels Optimierungsalgorithmen wird nun versucht eine möglichst gute Anordnung der Schnipsel zu finden, im Idealfall die ursprüngliche. Eine Testapplikation simuliert den Prozess des Shreddens einer Seite. Diese Seite wird dann mittels der oben beschriebenen Evaluierungstechniken und Optimierungsmethoden wie Multistart Variable Neighborhood Search, Simulated Annealing und Iterated Local Search wieder zusammengesetzt. Es wurden ausführliche Tests mit einem 60 Instanzen Testset durchgeführt. Die implementierte Applikation konnte mehr als die Hälfte aller Testinstanzen wieder korrekt zusammensetzen und kann auch mehrere Seiten auf einmal wiederherstellen.

Diplomarbeitsposter Zaubzer Ferdinand

Ferdinand Zaubzer

Diplomstudium Informatik
Abstract:

Das minimale Spannbaumproblem mit einer Beschränkung des Durchmessers (Bounded Diameter Minimum Spanning Tree - BDMST) ist ein NP schweres kombinatorisches Optimierungsproblem aus dem Bereich des Netzwerkdesigns. Ein verwandtes Problem ist das minimale Spannbaumproblem mit festgesetztem Wurzelknoten und einer beschränkten Anzahl von Kanten zwischen dem Wurzelknoten und jedem Blattknoten (Hop Constrained Minimum Spanning Tree - HCMST). In dieser Arbeit wird ein bestehender Relax-and-Cut (R&C) Algorithmus zur approximativen Lösung dieser Probleme verbessert und erweitert und ein hybrider Algorithmus basierend auf dem R&C Algorithmus und einer Metaheuristik vorgestellt. Der R&C Algorithmus basiert auf einer integer linear programming (ILP) Formulierung mit einer exponentiellen Anzahl von linearen Bedingungen, den sogenannten Jump-Constraints. Dabei werden nicht erfüllte Bedingungen während der Laufzeit des Optimierungsalgorithmus identifiziert und relaxiert. Verbessert wurde der R&C Algorithmus durch eine aufwändige Verwaltung der identifizierten linearen Bedingungen und durch den Einsatz eines non delayed R&C Verfahrens. Die entwickelten Erweiterungen sind der Einsatz von generalisierten Jump-Constraints und eine initiale Erzeugung einer Menge von Jump-Constraints mit zugehörigen dualen Variablen. Die für den hybriden Algorithmus verwendete Metaheuristik ist eine Ameisenkolonie-Optimierung (ACO). ACO Algorithmen nutzen die Fähigkeit von Ameisen kurze Wege zwischen Nahrungsquellen und ihrem Nest durch das Hinterlassen von Pheromonen am Weg zu finden. Die Funktionsweise entspricht einem positiv rückgekoppelten System. Der hybride Algorithmus verbindet die Pheromoninformationen mit Informationen vom R&C Algorithmus, sodass zur Lösungsfindung neben Pheromonwerten zusätzliche heuristische Werte einfließen. Experimentelle Berechnungen mit schon bestehenden Probleminstanzen aus der Literatur wurden durchgeführt. Die Resultate zeigen, dass die Verbesserungen des R&C Algori...

Diplomarbeitsposter Zaubzer Stephan

Stephan Zaubzer

Diplomstudium Informatik
Abstract:

In dieser Arbeit wird ein vollständiges Lösungsarchiv vorgestellt, das einen genetischen Algorithmus zur Lösung des multidimensionalen Rucksack Problems (MKP) erweitert. Der genetische Algorithmus, auf dem diese Arbeit aufbaut, verwendet einen repair operator, um ungültige Lösungen auszuschließen und jede gültige Lösung zu einer lokal optimalen Lösung zu transformieren. Es ist wahrscheinlich, dass der genetische Algorithmus Lösungen produziert, die während der Laufzeit schon einmal generiert und ausgwertet wurden. Um die Berücksichtigung von schon ausgewerteten Lösungen zu verhindern, wird ein Lösungsarchiv auf der Basis eines Tries analysiert. Jede erzeugte Kandidatenlösung wird in das Archiv eingefügt. Wird eine schon enthaltene Lösung in das Archiv eingefügt, so wird mit einer speziellen Prozedur aus dieser doppelten Lösung eine neue, noch unbesuchte Lösung generiert, die ebenfalls lokal optimal ist. Des weiteren werden während des Einfügens von Lösungen obere Schranken an jedem Knoten des Tries berechnet. Wird für einen Teilbaum des Tries eine obere Schranke ermittelt, die kleiner als die bisher beste gefundene Lösung ist, so wird der entsprechende Teilbaum abgeschnitten. Sind in einem Teilbaum alle lokal optimalen Lösungen schon einmal besucht worden, so wird dieser Teilbaum ebenfalls abgeschnitten. Jede Lösung, die später generiert wird und in diesem abgeschnittenen Teilbaum liegen würde, wird als schon besuchte Lösung identifiziert, und in eine noch unbesuchte Alternativlösung transformiert. In dieser Arbeit werden die zur Implementierung notwendigen Algorithmen und Datenstrukturen dieses Lösungsarchivs vorgestellt. Dieser erweiterte genetische Algorithmus wird mit dem ursprünglichen Algorithmus verglichen, und es zeigt sich, dass durch dieses Lösungsarchiv bei vielen Instanzen bessere Lösungen gefunden werden.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Ammer Andreas

Andreas Ammer

Diplomstudium Informatik
Abstract:

Keine Angaben

Diplomarbeitsposter Deix Wolfgang

Wolfgang Deix

Diplomstudium Informatik
Abstract:

Re-Compose, Musik, Visualisierung, VST (Virtual Studio Technology), JNI (Java Native Interface), MIDI (Musical Instrument Digital Interface)

Diplomarbeitsposter Emsenhuber Gerlinde

Gerlinde Emsenhuber

Diplomstudium Informatik
Abstract:

In dieser Diplomarbeit werden Visibility Histogramme als Methode um volumetrische Datensätze zu analysieren eingeführt. Diese Histogramme zeigen an, welchen Einfluss die Datenpunkte mit demselben Skalarwert in einem solchen Datensatz auf das Gesamtbild, welches entsteht wenn der Datensatzes mit einer bestimmten Transferfunktion und von einer bestimmten Blickrichtung aus mithilfe einer Direct Volume Rendering Methode wie zum Beispiel Volume Raycasting dargestellt wird, haben. Die Histogramme können benutzt werden um Aufschluss über die interne Struktur von volumetrischen Datensätzen, insbesonders Verdeckungen von verschiedenen Strukturen zu erhalten. Weiters wird auf die Möglichkeit eingegangen, mithilfe der Histogramme automatisch Transferfunktionen zu berechnen, welche bei Anwendung auf einen Datensatz aus einer bestimmten Blickrichtung eine gewünschte Sichtbarkeitsverteilung erzeugen. Zwei Ansätze wie dies realisiert werden kann werden vorgestellt: Der erste Ansatz basiert auf einem genetischen Algorithmus, der andere auf einer Heuristik.

Diplomarbeitsposter Frühstück Anton

Anton Frühstück

Masterstudium Visual Computing
Abstract:

Das Rendering von Terrain-Daten findet in vielen Anwendungsgebieten Verwendung. Neben kartographischen Anwendungen wird es auch im Unterhaltungssektor eingesetzt. Anwendungen, die ein sehr ausgedehntes Gelände anzeigen sollen, stehen vor dem Verarbeitungsproblem von großen Datenmengen. Es ist in der Regel nicht möglich, diese Datensätze mit herkömmlichen PCs direkt anzuzeigen. In dieser Arbeit wird eine verbesserte Terrain Rendering Technik vorgestellt. Diese Level-of-Detail Technik erlaubt das Anzeigen von auf beliebiger Basis aufgesetztem Terrain. Ein Beispiel dafür ist die Erde, deren Oberfläche auf einer Kugel basiert. Der vorgestellte Algorithmus baut auf dem Geometry Clipmaps Algorithmus auf, der das Anzeigen von unbeschränkt großen Terrain-Daten ohne Leistungsabfall erlaubt. Dieser Algorithmus wurde 2004 von Losasso und Hoppe entwickelt und 2005 von Asirvatham und Hoppe verbessert, um herkömmliche Graphik-Hardware besser ausnützen zu können und dadurch die Rendering-Leistung zu steigern. Dennoch können beide Algorithmen nur Gelände auf ebener Basis darstellen. Unsere Anwendung überwindet diese Einschränkung, indem anstelle einer Höhentextur eine Floating-Point Textur mit den 3D-Koordinaten der einzelnen Oberflächenpunkte verwendet wird. Durch diese Änderung ist es unserer Anwendung möglich, Gelände mit beliebiger Form anzuzeigen. Das erzeugte Drahtgitter ist nicht an ein reguläres, nur in z-Richtung veränderbares Mesh gebunden. Der Nachteil dieser Änderung des ursprünglichen Geometry Clipmap Algorithmus ist das Auftreten eines Genauigkeitsproblems, das dem Algorithmus das Rendern von nur beschränkt großen Terrains erlaubt. In dieser Arbeit wird dieses Präzisionsproblem durch Teilen der gesamten Oberfläche in kleinere, ohne Probleme verarbeitbaren Teile gelöst.

Diplomarbeitsposter Satzer Manfred

Manfred Satzer

Masterstudium Visual Computing
Abstract:

Diese Arbeit ist gegliedert in eine grundlegende Übersicht des Rendering-Prozesses und einer Erklärung der Hardware der PlayStation 2. Folgend wird das Layout der Rendering Engine inklusive der Design-Probleme und Möglichkeiten dargestellt. Ein ausführlicher Vergleich mit den Vor- und Nachteilen eines PCs inklusive der Schlußfolgerung schließen die Arbeit ab.

Diplomarbeitsposter Wohlmann Matthias

Matthias Wohlmann

Diplomstudium Informatik
Abstract:

Die Arbeit beschreibt die praktische Umsetzung eines Workflow-Management-Systems mit dem Namen „enablerWorkflows“. Die Microsoft Windows Workflow Foundation dient als Basis für enablerWorkflows. enablerWorkflows ist als Erweiterung in eine bestehendes web-basiertes Content-Management-System integriert. In enablerWorkflows ist jedem Workflow ein Workflow-Dokument zugeordnet. Dieses ist aus einzelnen Formularen zusammengesetzt, die im Verlauf des Workflows von den am Workflow beteiligten Benutzern ausgefüllt und überarbeitet werden. Bei den Formularen handelt es sich um Web-Formulare, die dynamisch mit einem Formular-Editor erstellt werden können, der ebenfalls im Content-Management-System inkludiert ist. Haupteinsatzgebiet ist die Umsetzung formularlastiger Geschäftsprozesse als Workflow (zum Beispiel Urlaubsansuchen, Verbesserungsvorschläge, Reklamationsmanagement, …). Dazu werden die Basis-Aktivitäten (= Bausteine eines Workflows) der Windows Workflow Foundation um zusätzliche Aktivitäten erweitert, die speziell im Hinblick auf eine optimale Zusammenarbeit mit den dynamischen Formularen entwickelt wurden. All diese Aktivitäten sind rein parametergesteuert, es ist also keine zusätzliche Programmierarbeit nötig, wie dies bei den meisten Basis-Aktivitäten der Fall wäre. Beispielhaft sei hier die Aktivität mit dem Namen „FillOutNew_User“ erwähnt, in der der über einen Parameter angegebene Benutzer ein Formular ausfüllen muss, das in einem weiteren Parameter spezifiziert ist. Das ausgefüllte Formular wird anschließend an das Workflow-Dokument angehängt. Weitere Aktivtäten ermöglichen unter anderem das Überarbeiten von Formularen, einen E-Mail-Versand sowie Verzweigungen und Schleifen abhängig von den Werten bereits ausgefüllter Formularelemente. Die Workflow-Definition wird mit dem grafischen Workflow-Designer erstellt, der im Microsoft Visual Studio integriert ist und um die zusätzlichen Aktivitäten erweitert wurde. Die Workflow-Definition kann ins Content-Managemen...

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Bamberger Harald

Harald Bamberger

Diplomstudium Informatik
Abstract:

Die steigende Zahl an InternetnutzerInnen weltweit bringt für international agierende Unternehmen bzw. Organisationen ein immer größeres Zielpublikum. Die einzelnen NutzerInnen kommen allerdings aus den unterschiedlichsten Kulturkreisen und sozialen Schichten. Um die BenutzerInnen bzw. KundInnen anzusprechen und eventuell zu binden, ist es notwendig Webauftritte oder Webapplikationen so zu gestalten, dass sich die BenutzerInnen wohl fühlen. Dies kann z.B. durch Verwendung der Sprache bzw. Schrift der BenutzerInnen, deren gewohntes Datumsformat oder Währung erreicht werden. Das Gebiet der Internationalisierung soll hierfür Methoden bereitstellen, um eine Anwendung nicht für jeden Kulturkreis extra zu entwickeln - was zwar auch eine Form der Internationalisierung wäre - sondern auf elegante und effiziente Weise nur jene Teile anzupassen, welche von Kultur zu Kultur verschieden sind, und dies tunlichst ohne einer neuerlichen Kompilierung der Applikation. Im ersten Teil der Arbeit werden ausgehend von einer Übersicht der einzelnen Probleme, die im Fokus der Internationalisierung liegen, Methoden und Konzepte zu deren Lösung vorgestellt. Im zweiten Teil werden anhand einer einfachen repräsentativen Webapplikation die Möglichkeiten zur Internationalisierung, die aktuelle Webentwicklungsframeworks (Tapestry/JAVA, ASP.Net/C# und Zend Framework/PHP) bieten, evaluiert und verglichen.

Diplomarbeitsposter Kilic Hasan

Hasan Kilic

Diplomstudium Informatik
Abstract:

Die Automatisierung des Build-Prozesses ist eine besonders wichtige und empfehlenswerte Vorgehensweise, die im Zuge jedes Softwareentwicklungsprozesses stattfinden sollte. Doch bevor es überhaupt möglich ist, dass sich Projektteams dieser Thematik zuwenden, muss vorerst die korrekte Gestaltung und Strukturierung des Build-Prozesses erfolgen, sodass man sich anschließend Gedanken über die Implementierung und Automatisierung des Prozesses machen kann. Um ein Softwareprodukt erstellen zu können, muss eine Kette von bestimmten Schritten bzw. Phasen aufeinanderfolgend ausgeführt werden, die im Build-Prozess zusammengefasst bzw. vereint werden. Insofern ist es wichtig zu wissen, aus welchen Teilen der Build-Prozess besteht und wie er aufgebaut ist. Außerdem sollten sich AnwenderInnen darüber im Klaren sein, was sie sich vom Build-Prozess erwarten und zu welchem Zweck sie ihn einsetzen. Diese Diplomarbeit widmet sich der ausführlichen Untersuchung des Build-Prozesses, mitsamt all seinen Einzelheiten und Bestandteilen. Dabei werden jene Technologien, Werkzeuge und Entwicklungsmethoden in die Betrachtung mit einbezogen, die mit diesem Prozess in direktem Zusammenhang stehen. Die Untersuchung hat gezeigt, dass der automatisierte Build-Prozess im Vergleich zu manuell gesteuerten Builds die effektivere und weniger fehleranfällige Variante ist. Daneben ließen sich eine Reihe von Vorteilen, wie beispielsweise der Wiederverwendbarkeit, Reproduzierbarkeit und Skalierbarkeit, erkennen, die mittels Automatisierung bestimmter Prozessaktivitäten genossen werden können. Außerdem ist ein deutlicher Trend Richtung vollständiger Automatisierung des Build-Prozesses erkennbar, der vor allem damit einhergeht, dass neue Entwicklungsmethoden, wie das Agile Development, einen besonders großen Wert auf automatisierte Builds legen.

Diplomarbeitsposter Winnisch Markus

Markus Winnisch

Diplomstudium Informatik
Abstract:

Wann immer ein medizinischer Notfall eintritt, lautet die erste Aufforderung: „Ruf die Rettung an!“. Genau hier tritt dann die Rettungsleitstelle in Aktion. Bei ihr langt der Notruf ein, sie bestimmt die Dringlichkeitsstufe und alarmiert ein geeignetes Einsatzfahrzeug. Im Jahr 2003 fand in Niederösterreich eine Umstrukturierung der Rettungsleitstellen statt. Die Firma 144-Notruf-NÖ GmbH wurde mit dem Ziel gegründet, alle bisherigen 93 Rettungsleitstellen zu ersetzen und mit möglichst wenigen Betriebsstätten (mittlerweile 6) effizienter arbeiten und auch mehr Service anbieten zu können. Bei der erfolgreichen Umsetzung dieses ehrgeizigen Planes ist der Einsatz von neuen Technologien unumgänglich. In dieser Diplomarbeit erläutere ich nach allgemeinen Informationen, sowie Ausstattung und Aufgaben einer Rettungsleitstelle zunächst die Arbeitsweise von 144-Notruf-NÖ bei einem Notfall im Detail. Besonderes Augenmerk lege ich dabei auf die neu eingesetzten Technologien, die die Mitarbeiter durch alle Stufen der Notfallbearbeitung unterstützen. Im Anschluss werden die Arbeitsabläufe mit jenen der Notfallbearbeitung vor der Umstrukturierung vergleichend dargestellt. Die Arbeitsweise der skandinavischen Rettungsleitstellen ist der von 144-Notruf-NÖ weit ähnlicher als die der alten niederösterreichischen Leitstellen. Aus diesem Grund habe ich Studien aus diesen Ländern zu Vergleichszwecken herangezogen und ebenfalls die Unterschiede herausgearbeitet. Als Ergebnis dieses Vergleichs habe ich herausgefunden, dass in Skandinavien sehr großer Wert auf Kooperation bei der Lösung von Problemen gelegt wird und habe zum Abschluss meiner wissenschaftlichen Arbeit versucht, eine Begründung dafür zu finden.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Czoppelt Gerd

Gerd Czoppelt

Diplomstudium Informatik
Abstract:

Diese Diplomarbeit zeigt mittels einer Studie, wie der Computer heutzutage in den Creative Industries zum Einsatz kommt. Insbesondere wurde dabei untersucht, inwieweit Zusammenarbeit durch die eingesetzten Technologien unterstützt oder behindert wird, und mit welchen Mitteln versucht wird, die Zusammenarbeit zu erleichtern. Für diese Studie wurden mit Hilfe von qualitativen Interviews sechs Vertreter der Creative Industries zum Arbeitsablauf von Projekten befragt, an denen sie teilgenommen oder die sie selbst geleitet haben.

Diplomarbeitsposter Hartmann Nicole

Nicole Hartmann

Diplomstudium Informatik
Abstract:

Im Internet findet sich eine kaum überschaubare Anzahl an Webseiten, die speziell für Kinder entwickelt worden sind. Man erhält im Internet sehr häufig Informationen über Gefahren und Risiken, denen Kinder bei ihren Online-Aktivitäten ausgesetzt sind, wesentlich seltener stößt man auf Positivprädikatisierungen von Webangeboten. Im Mittelpunkt dieser Arbeit steht daher die Definition von Kriterien, die auch nicht wissenschaftlich geschulte Personen in die Lage versetzen soll, Webangebote nach deren Eignung für Kinder zu beurteilen. Zunächst wird die Intention des Anbieters sowie die Intention des Kindes untersucht. Es folgt eine Diskussion von Gestaltungsaspekten wie Usability, Adaptivität und Transparenz des Webangebotes sowie der Gewährleistung des Datenschutzes. Danach werden verschiedene Anforderungen unter die Lupe genommen, die der Umgang mit Webangeboten an Kinder stellt. Dazu zählen soziale, emotionale, medienbezogene und kognitive Anforderungen, sowie Anforderungen an Wahrnehmungs-, Aufmerksamkeits- und sensomotorische Koordinationsleistungen. Abschließend wird die Angemessenheit des ethisch-normativen Gehalts eingehender betrachtet. Um die Anwendbarkeit der beschriebenen Kriterien zu demonstrieren sind vier Webangebote exemplarisch ausgewählt worden, die ein weites Spektrum an Themengebieten abdecken. Die entwicklungspsychologische Grundlage bei der Untersuchung der Webangebote bilden die Arbeiten von Jean Piaget. Darüber hinaus ist eine Beurteilung nach dem pädagogischen Konzept Maria Montessoris vorgenommen worden.

Diplomarbeitsposter Meurers Christian

Christian Meurers

Diplomstudium Informatik
Abstract:

Die Arbeit beschäftigt sich mit dem Informationskrieg und seinen Auswirkungen auf die Militärdoktrinen der USA. Nach den theoretischen Grundlagen wie dem Informationsbegriff, militärischer Organisation und unter anderem einer gesellschaftspolitischen Betrachtung des Informationskrieges wird eine Untersuchung der Kriegsführung der letzten 30 Jahre durchgeführt. Weiters wird der Zusammenhang zwischen Führung, Technologie und Doktrin beleuchtet und versucht einen Ansatz für eine Definition einer Revolution in Militärischen Angelegenheiten zu finden.

Diplomarbeitsposter Neuwirth Martin

Martin Neuwirth

Diplomstudium Informatik
Abstract:

*nix-Systeme existieren. Durch ihre weite Verbreitung begünstigt, gibt es viele Anwender, die täglich den Stärken und Schwächen dieser User Interfaces ausgesetzt sind. Das Thema Usability wird aufgegriffen, analysiert und bildet die Basis für die durchgeführten Untersuchungen an GNOME und KDE. Wie Usability bei finanzstarken Unternehmen gesichert werden kann, wird dargestellt. Im Kontrast hierzu stehen Open Source Projekte, denen oft die finanzielle Unterstützung fehlt. Anhand von Discount Usability Engineering Methoden werden diese beiden Oberflächensysteme zum einem mittels User-Tests und zum anderen mittels einer Online-Umfrage miteinander verglichen, sofern dies möglich ist. Die User-Tests werden in einer gemütlichen Atmosphäre, in der der Tester neun alltägliche Aufgaben unter Verwendung beider Schnittstellen löst, durchgeführt. Es existieren noch nicht viele Usabilitystudien zu GNOME und KDE, doch wird auf Vergleichbarkeit mit den vorhandenen Studien Wert gelegt. Die Online-Umfrage rundet die Untersuchungen ab und gibt einen statistischen Überblick darüber, wie sich die beiden User Interfaces im Hinblick auf Usabilityaspekte verhalten.

Diplomarbeitsposter Obernberger Gerhard

Gerhard Obernberger

Diplomstudium Informatik
Abstract:

Diese Arbeit untersucht den Gestaltungsspielraum von mobilen räumlichen Anwendungen und Methoden für den Zugang zu Points–of–Interest (POI). Virtuelle grafische Repräsentationen der Umgebung sollen dem Benutzer helfen, auf möglichst einfache Weise die gewünschten Informationen zu erhalten. Im Rahmen dieser Arbeit sind voll funktionsfähige Prototypen von Restaurantführern implementiert worden, welche unterschiedliche Gestaltungsmerkmale hinsichtlich Design und Interaktionskonzept aufweisen. Mit den Prototypen wurde eine Benutzerstudie durchgeführt, um die Präferenzen der Benutzer in Bezug auf Visualisierung der Umgebung und Einfachheit des Zugangs zu POI zu eruieren. Mehrere unterschiedliche Visualisierungen und Interaktionskonzepte wurden implementiert, welche die Umgebung des Benutzers abhängig von seiner geografischen Position und der 3D–Ausrichtung im Raum darstellten. Für die Visualisierungen wurde ein Gebäudemodell herangezogen, bei dem die POI, im vorliegenden Fall die Restaurants, visuell zu den Gebäuden zugeordnet waren und vom Benutzern ausgewählt werden konnten, um detaillierte Informationen zu erhalten. Die bedeutendste Erkenntnis war, dass alle orientierungsbewussten Visualisierungen der Umgebung gegenüber den konventionellen orientierungsunabhängigen Darstellungen bevorzugt wurden. Daraus kann geschlossen werden, dass in zukünftigen mobilen Endgeräten die Integration eines elektronischen Kompasses sinnvoll wäre. Weitere Ergebnisse hinsichtlich des Realitätsgrades der Darstellung, der Perspektive auf die Umgebungssituation sowie des Gesichtsfeldes konnten durch die Gegenüberstellung der unterschiedlichen Eigenschaften sowie spezifischer Befragung der Testpersonen erzielt werden. Aufgrund der Aussagen der Testpersonen können erste Empfehlungen für die Gestaltung von Benutzerschnittstellen für mobile räumliche Anwendungen gegeben werden. Darüber hinaus werden Vorschläge für zukünftige Forschungsrichtungen abgegeben.

Diplomarbeitsposter Oberschneider Alexandra

Alexandra Oberschneider

Individuelles Masterstudium aus Medieninformatik
Abstract:

Das Thema dieser Masterarbeit ist die Gebrauchstauglichkeit (Usability) von DVD Rekordern mit Festplatte. Für die Forschung ist von Interesse, ob bei DVD Rekordern mit Festplatte ebenfalls eine schlechte Bedienbarkeit, wie bei Vidoerekordern und Fernbedienungen, auftritt. Für die Praxis ist es interessant zu zeigen, dass die Endanwender mit den derzeitigen Geräten überfordert und daher nicht zufrieden sind. Das Ziel ist eine Anleitung, für einen benutzerfreundlichen DVD Rekorders mit Festplatte (Software, Fernbedienung und das Gerät selbst), zu entwickeln. Das Endresultat soll in Form von Funktionslayouts in Kombination mit speziellen Richtlinien verfügbar sein. Wie Bedienbarkeit definiert werden kann, welche Methoden für eine Untersuchung optimal sind, welche Richtlinien bereits existieren und welche Grundlagen der Gestaltung beachtet werden sollten, damit beschäftigt sich der Theorieteil. Im Praxisteil sind die angewandten Methoden (PACT - ein Rahmen für die Analyse, Interviews, Gerätevergleich, Beobachtung und Coaching) und deren Ergebnisse angeführt.

Diplomarbeitsposter Puchta Jürgen

Jürgen Puchta

Masterstudium Medieninformatik
Abstract:

Kaum eine Diskussion wird ähnlich emotional und kontroversiell geführt wie die um Regulierungsmaßnahmen und Kotrollmechanismen für einen vernünftigen und verantwortungsvollen Umgang mit PC- und Konsolenspielen. Vor allem im Umfeld von Gewalt thematisierenden Spielen wird der Ruf nach restriktiveren Kontrollen und Zensurmaßnahmen bis hin zu totalen Verboten immer lauter. In der Tat hat sich im Bereich der Reglementierung in Zusammenhang mit Spielen und potentiell jugendgefährdenden Inhalten in den letzten Jahren auch einiges bewegt. Dass es dabei auf Grund von unterschiedlichen internationalen Wert- und Moralvorstellungen, gesellschaftlichen Strukturen und politischen Systemen global gesehen zu Unterschieden in der Art und Ausprägung von Kontroll-mechanismen und Regulierungsmaßnahmen kam, ist nicht weiter verwunderlich. Auf einem globalen Markt bedeutet das aber gleichzeitig auch gewisse Einschränkungen für die Spiele-Entwickler, die ihrerseits alles unternehmen, um ihre Absatzmärkte auch weiterhin aufrecht zu erhalten. Hersteller wie auch Spieler reagieren auf diese Entwicklungen auf zum Teil sehr „kreative“ Art - Gründe genug, die Thematik innerhalb dieser Arbeit näher zu analysieren.

Diplomarbeitsposter Scholz Florian

Florian Scholz

Diplomstudium Informatik
Abstract:

hypertext / weblog / wiki / spatial hypertext / interface / link / www

Diplomarbeitsposter Wallner Gerald

Gerald Wallner

Diplomstudium Informatik
Abstract:

Die zentrale Fragestellung dieser Arbeit lautet: Gibt es in Zeiten der mobilen Informations-, und Kommunikationstechnologie noch einen Bedarf an ortsgebundenen Kiosksystemen im öffentlichen Raum? Für die Bedarfsanalyse werden die Interntetterminals (Multimedia Stations) der Telekom Austria herangezogen. Anhand von Statistiken des Benutzerverhaltens sowie den Ergebnissen von Benutzerumfragen wird die Entwicklung des Kiosksystems seit dem Jahr 2003 untersucht. Eine genauere Analyse der Benutzerschnittstelle und der angebotenen Applikationen zeigt die Vor- und Nachteile von Internetterminals im Outdoorbereich auf. Warum es in Zukunft schwer sein wird, ein Internetterminalbusiness gewinnbringend zu betreiben, wird mit einer Branchenstrukturanalyse begründet.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Mansoor Ahmed, Nebojsa Babic, Mahshid Bernroider, Monika David, Selen Elgin, Wolfgang Freund, Emanuel Dominik Höfenstock, Robert Jankovics, Hans-Dieter Karl, Christoph Karner, Claudia Moser, Nikolaus Alexander Nikoll, Andreas Perner, Katja Rammer, Christoph Wastyn, Hannes Weingartner, Leo Willitsch, Markus Winkler
Diplomarbeitsposter Apfelthaler Kathrin

Kathrin Apfelthaler

Masterstudium Information & Knowledge Management
Abstract:

Das Schlagwort "Web 2.0" dominiert seit den letzten Jahren die Diskussionen rund um die Zukunft des Internets. Second Life fügt sich in das Konzept des benutzer-generierten Inhalts ein, indem es den Nutzern erlaubt, beliebige Objekte im virtuellen Raum zu kreieren. Mit Hilfe von Spielfiguren, sogenannten Avataren, interagieren die Menschen in der virtuellen Welt, die aus miteinander verknüpften Regionen besteht. Jedem Benutzer steht es frei, welchen Aktivitaten er in Second Life nachgeht und welche Orte er besichtigt. Die Diplomarbeit beschäftigt sich mit dem Verhalten der Benutzer von Second Life und versucht Informationen über die Avatare sowie Zusammenhänge zwischen den Avataren und den von ihnen besuchten Orten zu erforschen. Im praktischen Teil, der dieser Arbeit vorangeht, erfolgte eine Erhebung der Daten zu den Avataren und den Orten, die von den Avataren aufgesucht wurden. Die aufgezeichneten Werte werden im Anschluss analysiert. Anhand einiger Beispiele werden Firmenpräsenzen und politische Aktivitäten in Second Life vorgestellt. Weiters werden die Gestaltungsmöglichkeiten der Avatare und die Merkmale eines unterhaltsamen Wirtschaftssystems betrachtet.

Diplomarbeitsposter Brenner Richard

Richard Brenner

Masterstudium Software Engineering & Internet Computing
Abstract:

Ab den 50er Jahren (Gründung von Diners Club in den USA) haben sich vermehrt Kredit- und Debitkarten als Alternative zur Bargeldzahlung durchgesetzt. In Österreich ist ein deutlicher Trend hin zu Kartenzahlung festzustellen. Bis zu 40% aller Einkäufe (Stand Februar 2008) werden bereits mit Bankomatkarte (Debitkarte) getätigt. Vorreiter sind die Bundesländer Wien und Tirol. Im Firmenumfeld ist eine Integration dieser Bezahlmöglichkeiten an die eigenen Kassen mitunter zu aufwendig und es werden weitere Alternativen zur Barzahlung für die Mitarbeiter gesucht. Die Anforderungen an ein geschlossenes System erlauben schlankere Lösungen, die besser an den jeweiligen Bedarf zugeschnitten werden können. Bereits jetzt besitzen viele Firmen Zutrittskontrollen auf RFID-Basis. Denkbar ist eine Erweiterung dieser Karten um die Funktion einer elektronischen Geldbörse. Im Gegensatz zu öffentlichen Bezahllösungen erfolgt dann die Verwaltung der Transaktionen intern, wodurch eine Anbindung an vorhandene ERP Systeme möglich wird. Ein weiterer großer Vorteil kontaktloser Geldträger ist die Geschwindigkeit bei der Bezahlung. Großer Andrang zu Stoßzeiten kann somit besser bewältigt werden, da die Wartezeiten erheblich verkürzt werden. Die folgende Arbeit beinhaltet die theoretische Auseinandersetzung mit dem Thema firmeninterne Geldträger auf RFID-Basis in Form einer Anforderungsanalyse, Analyse vorhandener Hard- und Software. Im Rahmen der Arbeit wurde ein Prototyp entwickelt. Dieser umfasst die Implementierung eines zentralen Datenservers, eines Administrations-Clients zur Verwaltung des Systems, eines Ladeterminals sowie die Entwicklung der Anbindung an ein vorhandenes Kassensystem.

Diplomarbeitsposter Cerny Roman

Roman Cerny

Diplomstudium Informatik
Abstract:

Recommender Systems Collaborative Filtering Personalisation Recommendation Web Services

Diplomarbeitsposter Culha Vahidenur

Vahidenur Culha

Masterstudium Information & Knowledge Management
Abstract:

Die Informationssicherheit von Gesch¨aftsprozessen ist auf Grund von Sicherheitsl¨ucken in zunehmendem Maße Bedrohungen ausgesetzt. Besonders die steigende Nutzung von Information-, und Kommunikationstechnologie erh¨oht das Risiko. Unternehmen m¨ussen daher ihre Assets (wie etwa Reputation, Services, Software oder wichtige Information) vor m¨oglichen Bedrohungen sch¨utzen. Sicherheitsstandards wie zum Beispiel Common Criteria (CC), der IT-Grundschutz-Kataloge des BSI, ISO/IEC 17799 oder ISO/IEC 27001 k¨onnen Unternehmen als Richtlinien f¨ur das Management von Informationssicherheit dienen. Allerdings stellt die Anwendung dieser Normen eine Herausforderung dar, da diese Normen ¨ublicherweise sehr allgemein formuliert sind. Die Implementierung der Sicherheitsstandards ist ein teurer, komplizierter und b¨urokratischer Prozess, da die Standards an die spezifischen Unternehmensanforderungen angepasst werden m¨ussen. In dieser Arbeit wird ein Modell ausgearbeitet, dass Entscheidungstr¨ager bei der Auswahl der optimalen Sicherheitsmaßnahmen auf Basis der Norm ISO/IEC 27001 unterst¨utzt werden. In diesem Modell wird eine multikriterielle Methode zur Entscheidungsunterst¨utzung angewandt, die Entscheidungstr¨agern als effiziente Methode zur Auswahl von Sicherheitsmaßnahmen gem¨aß der gew¨ahlten Kriterien dienen kann. Dieses Modell kann Entscheidungstr¨ager bei der zweckm¨aßigen und organisierten Implementierung der Norm ISO/IEC 27001 unterst¨utzen. Dies erm¨oglicht nicht nur die Bestimmung der f¨ur das Unternehmen spezifischen Sicherheitsanforderungen, sondern erleichtert auch den Weg zur Zertifizierung gem¨aß ISO/IEC.

Diplomarbeitsposter Deischler Gernot

Gernot Deischler

Masterstudium Informatikmanagement
Abstract:

Diese Arbeit bietet eine fundierte Aufbereitung von IT - Sicherheitsmaßnahmen, die auf Klein- und Mittelbetriebe bezogen sind. Die IT – Sicherheitsmaßnahmen werden theoretisch aufgearbeitet und es wird ein Instrument entwickelt, mit dem eine fundierte Sicherheitsanalyse durchgeführt werden kann. Ausgangspunkt für die Sicherheitsanalyse des Unternehmens ist ein Fragebogen, mit dem das Sicherheitsniveau des Unternehmens bestimmt wird. Aufgrund der gewählten Antworten im Fragebogen werden konkrete Sicherheitsmaßnahmen vorgeschlagen, die im jeweiligen Betrieb umgesetzt werden sollten. Weiters ist dieses Werk zu Trainingszwecken für Unternehmensverantwortliche einsetzbar, damit diese gegenüber dem Thema IT – Security sensibilisiert werden.

Diplomarbeitsposter Dietl Gerald

Gerald Dietl

Diplomstudium Informatik
Abstract:

Die vorliegende Diplomarbeit beschreibt Hardware- und Software-Technologien, die mobilen Endgeräten in den kommenden Jahren zu einer noch breiteren Akzeptanz verhelfen sollen.Schon heute gibt es in vielen Industrieländern mehr Mobiltelefone als Einwohner. Der Trend bewegt sich dabei vom reinen tragbaren Telefon weg in Richtung Multimediagerät. Im Bereich der Hardware werden einige Technologien einer genaueren Betrachtung unterzogen, deren Grundlage die organische Elektronik, also die Verwendung von organischen Materialien entweder zur Herstellung der elektronischen Bauteile selbst, oder als flexibles Trägermaterial für diese Bauteile, ist. Die Akzeptanz jedes technischen Gerätes hängt von der Einfachheit der Bedienung und im Falle von Computern auch von der Funktionalität der Applikationen ab. Aus diesem Grund werden einerseits die Entwicklungsparadigmen für die Applikationsentwicklung beleuchtet, als auch die Frameworks einer näheren Betrachtung unterzogen, die die Entwicklung und das Design von mobilen Applikationen in den nächsten Jahren entscheidend prägen sollen. Den Abschluß bildet ein Konzept für eine Tourismus-Applikation, die aufzeigt, wie die zuvor vorgestellten Technologien zusammenspielen können.

Diplomarbeitsposter Genswaider Ronald

Ronald Genswaider

Wirtschaftsinformatik
Abstract:

Self-Organizing Maps, SOM, Music Information Retrieval, Music Representation, Virtual Environments,3D Game Engines

Diplomarbeitsposter Goldfarb Doron

Doron Goldfarb

Diplomstudium Informatik
Abstract:

Visualisierung / Arbeitsmarktdatenbank / Arbeitsmarkt

Diplomarbeitsposter Gondowidjaja Clemens

Clemens Gondowidjaja

Masterstudium Business Informatics
Abstract:

Production Automation; Simulation ; Coordination in Multi-Agent Systems; Coordination Patterns

Diplomarbeitsposter Grüneis Joachim

Joachim Grüneis

Diplomstudium Informatik
Abstract:

Keine Angaben

Diplomarbeitsposter Hablesreiter Bernhard

Bernhard Hablesreiter

Masterstudium Informatikmanagement
Abstract:

Eclipse / RCP / Rich Client Plattform / Rich Client / Datensteuerung Eclipse / Eclipse XML / SWT

Diplomarbeitsposter Heigl Thomas

Thomas Heigl

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Information Retrieval (IR) bzw. Informationswiedergewinnung ist ein relativ altes und etabliertes Fachgebiet der Informatik, dessen Wurzeln bis in die 1950er zurückreichen. Bis vor kurzem lag das Hauptaugenmerk von IR auf der Wiedergewinnung von Information aus unstrukturiertem Text. Heutzutage werden jedoch immer mehr Dokumente im Internet, in digitalen Bibliotheken und in Intranets in strukturierter Form zur Verfügung gestellt. Die strukturierten Aspekte der Dokumente werden dabei mit Auszeichnungssprachen wie der eXtensible Markup Language (XML) dargestellt. Dieses explizite strukturelle Wissen kann von speziell adaptierten IR-Systemen dazu genutzt werden, präzisere und schärfere Suchergebnisse zu liefern. Die Entwicklung derartiger Systeme birgt allerdings eine Reihe neuer Herausforderungen. Im juristischen Bereich spielen strukturierte Information und deren Wiedergewinnung eine zentrale Rolle. Die effiziente Handhabung der Information wird durch die enorme und ständig wachsende Menge an verfügbarem juristischem Material zunehmend erschwert. Viele Autoren sprechen in dieser Hinsicht von Informationsüberladung und der Informationskrise des Rechts. Es ist daher wenig verwunderlich, dass der juristische Bereich eines der ersten Anwendungsgebiete von IR-Techniken war. Im Laufe der Jahre scheiterten allerdings viele Ansätze für juristische Informationssysteme, weil die Bedürfnisse und die Arbeitsweise von Juristen ignoriert, und die Entwicklung der Systeme primär als technische Herausforderung gesehen wurde. Ein Verständnis des juristischen Bereichs und seiner speziellen Anforderungen ist folglich erforderlich, um erfolgreiche Rechtsinformationssysteme zu entwickeln

Diplomarbeitsposter Kremmel Thomas

Thomas Kremmel

Masterstudium Business Informatics
Abstract:

Strategische Ausrichtung, effiziente Nutzung von Ressourcen und ausgeglichene Portfolios bezüglich des Risikos sind Hauptziele von Projekt Portfolio Management. Die Auswahl von Projekten ist eine komplexe Aufgabe, da verschiedenste Ziele, Restriktionen, Bedingungen und subjektive Präferenzen beachtet werden müssen. Die Komplexität wächst mit der Projektanzahl aus denen eine Auswahl getroffen werden muss. Die vorliegende Diplomarbeit präsentiert ein Rahmenwerk, welches auf die automatisierte Auswahl von Projekten abzielt und hierfür einen sogenannten evolutionären Optimierungs-Algorithmus nutzt. Im ersten Teil wird eine Implementierung des Optimierungs-Algorithmus für dieses Problem präsentiert. Das daraus resultierende Optimierungsprogramm ist fähig innerhalb weniger Minuten effiziente Portfolios zu erstellen, welche im Sinne der Mehrzieloptimierung besser sind als sonstige im Lösungsraum vorhandene Portfolios. Im zweiten Teil wird ein Gruppen-Entscheidungs-Prozess vorgestellt, der eine Gruppe von Entscheidungsträgern bei der Auswahl eines Portfolios aus der Pareto-Optimalen Front unterstützen soll. Hauptbeitrag dieser Diplomarbeit ist die Kombination eines objektiven Optimierungs-Projekt-Auswahl-Rahmenwerks mit einem einfach zu bedienenden Gruppen-Entscheidungs-Prozesses, in welchem individuelle Präferenzen visualisiert werden können und die Suche nach Konsens bezüglich unterschiedlicher Präferenzen erleichtert wird. Der präsentierte Ansatz zur Portfolio-Optimierung erhält besondere Relevanz, da eine neue Methode zur Auswahl und Anordnung von Projekten beschrieben wird. Des Weiteren werden Methoden zur Optimierung von Portfolios bezüglich verschiedenster objektiver Präferenzen wie Risiko Verteilung vorgestellt. Dabei werden zahlreiche Restriktionen, Bedingungen und logische Abhängigkeiten beachtet. Der vorgestellte Optimierungsansatz schränkt die zu optimierende Projektanzahl nicht ein.

Diplomarbeitsposter Liensberger Armin

Armin Liensberger

Diplomstudium Informatik
Abstract:

Metasuchen können verschiedene Suchportale nach Informationen absuchen und sie in zusammengefasster Form dem Benutzer darstellen. Bei der Umsetzung einer Metasuche können Workflow Engines integriert werden, die den Ablauf einer Metasuche unterstützen. Diese Arbeit untersucht nach bestimmten Kriterien, welche der drei evaluierten Workflowsysteme am besten für eine Einbindung in eine Metasuche geeignet ist. Zu diesem Zweck wird ein Workflow in den drei verschiedenen Workflow Systemen anhand eines Beispiels der Suche in Frachtbörsen nach passenden Frachtaufträgen umgesetzt. Die Arbeit gibt Aufschluss darüber, wie und mit welchen Mitteln die Aufgabe in diesem und ähnlich gelagerten Anwendungsfällen gelöst werden kann. Darüberhinaus werden die einzelnen Workflow Systeme anhand von aufgestellten Kriterien verglichen.

Diplomarbeitsposter Lin Chia-Chang

Chia-Chang Lin

Masterstudium Business Informatics
Abstract:

Das IT-Risikomanagement (RM) wird im Unternehmen oft durchgeführt und gewinnt aufgrund der rasanten Entwicklung im IT-Bereich immer mehr an Bedeutung. Die Unternehmen werden im IT-Bereich täglich von verschiedenen Gefahren ausgesetzt. Es ist daher notwendig, dass man die möglichen Risiken regelmäßig erfasst, bewertet, steuert und überwacht. Die Arbeit ist in zwei Bereiche aufgeteilt: IT-Risikomanagement Theorieteil und die Evaluierung der RM-Lösungen. Im ersten Teil wird zuerst die allgemeine Theorie im Risikomanagement vorgestellt. Im Evaluierungsteil sind insgesamt drei Softwareevaluierungen enthalten. Diese Software unterstützt das IT-Risikomanagement und basiert auf unterschiedliche RM-Methode. Der Schwerpunkt der Evaluierung liegt in der Unterstützung der Software im IT-Risikomanagement. Es kommt dabei nicht darauf an, welche Best Practice Ansätze das Programm unterstützt. Um die Evaluierung zu erleichtern, wurde ein Business Case erstellt. Im Business Case sind Informationen über den IT-Bereich eines mittelständischen Unternehmens enthalten. Diese Informationen dienen als Ausgangspunkt für die Modellierung bei der Evaluierung. Neben dem Business Case wurde auch ein Katalog mit Evaluierungskriterien erstellt, um einen Anhaltspunkt beim Vergleich zu haben. Man muss hier dabei beachten, dass die evaluierten RM-Produkte Softwareprogramme sind und Evaluierungsschwerpunkte analog zu den Qualitätskriterien einer Software gesetzt werden. Diese Schwerpunkte in der Softwarequalität sind z.B. die Bedienbarkeit der Software. Die Zielsetzung der Arbeit ist nicht nur das Ergebnis der evaluierten IT-Risikomanagement-Software zu präsentieren, sondern die Arbeit zeigt auch, wie man eine IT-Risikomanagement Lösung evaluieren kann, egal auf welchen Standard oder Best Practice Ansatz das Programm basiert. Das Theorieteil gibt zusätzlich eine recht gute Einführung in die Materie und ist für Unternehmen interessant, die Interesse an der Einführung von IT-Risikomanagement haben.

Diplomarbeitsposter Löbl Claudia

Claudia Löbl

Masterstudium Informatikmanagement
Abstract:

Risikomanagement wird in beinahe jedem Unternehmen eingesetzt - in verschiedenen Formen. Vor allem im operativen Bereich werden mögliche Risiken analysiert, identifiziert, beobachtet und bei Notwendigkeit auch gegengesteuert. Im Projektmanagement und im Qualitätsmanagement wird Risikomanagement gezielt eingesetzt und Risikomanagement ist auch Thema in jeder betriebswirtschaftlichen Abteilung. Die Zusammenführung zu einem umfassenden Risikomanagement und die Einbettung in die Aufbauorganisation werden aber eher vernachlässigt. Diese Arbeit soll einen Überblick über das gesamte Spektrum von Risikomanagement geben. Risikomanagement wird dabei eben nicht als Einzelaufgabe in den verschiedenen Abteilungen eines Unternehmens betrachtet - durch die Zusammenführung zu einem übergreifenden Unternehmensprozess kann Risikomanagement gezielt als Unternehmens- Steuerungsinstrument eingesetzt. Neben den gesetzlichen Vorgaben und anderen Rahmenbedingungen zum Thema Risikomanagement wird auch die Risikomanagement-Organisation als wichtiger Faktor für das Funktionieren des Risikomanagement-Prozesses erläutert. Ein wesentlicher Beitrag ist die Studie zum Status von Risikomanagement in österreichischen Unternehmen. Dafür wurde eine Befragung durchgeführt, die folgende Themenbereiche abdeckt: der Einsatz von externer Unterstützung bei der Einführung von Risikomanagement, die Einbindung der Mitarbeiter in die Risikomanagement-Prozesse, die Frage der kollaborativen Risikoanalyse, die Art und Häufigkeit einer Tool- Unterstützung für Risikomanagement und Notfall- und Krisenplanung. Zielgruppen für diese Arbeit sind sowohl Unternehmen, die Risikomanagement einführen wollen - diese können einen Überblick über die Bandbreite von Risikomanagement und einer möglichen Risikomanagement-Organisation erhalten - als auch Unternehmen, die Risikomanagement bereits eingesetzt haben und ihren Risikomanagement-Prozess überarbeiten wollen.

Diplomarbeitsposter Manutscheri Arman

Arman Manutscheri

Masterstudium Business Informatics
Abstract:

Die Komplexität von IT-Sicherheit steigt fortwährend; gleichzeitig ist der Schutz von Geschäftsdaten zu einer unerlässlichen Pflicht eines jeden Unternehmens geworden. Oft haben vor allem Klein- und Mittelbetriebe gar nicht die Ressourcen und die Möglichkeiten um diesen hohen Anforderungen gerecht zu werden. Meine Arbeit baut auf „SecOnt“ - einer von Stefan Fenz und Andreas Ekelhart entwickelten IT-Security Ontologie, die Unternehmen eine kostengünstige Möglichkeit für Risikomanagement und Bedrohungsanalysen bietet. Meine Arbeit erweitert das ontologische Modell mit in der Praxis etabliertem Wissen aus den IT-Grundschutz Katalogen des deutschen Bundesamts für Sicherheit in der Informationstechnik. Ich habe die relevanten Konzepte der Wissensbereiche „Bedrohung, Schwachstelle, Gegenmaßnahme“ analysiert, gefiltert, angepasst und schließlich innerhalb der Struktur von SecOnt abgebildet. Initiale Inkompatibilitäts-, Inkonsistenz- und Redundanzprobleme innerhalb der Wissensquelle wurden von mir reduziert bzw. eliminiert. Zusätzlich habe ich die Wechselbeziehungen der einzelnen Bedrohungen zueinander modelliert, um so die Möglichkeit der Modellierung von Kettenreaktionen und somit der verbesserten Simulation von Bedrohungsszenarien zu gewährleisten.

Diplomarbeitsposter Menches Alexander

Alexander Menches

Diplomstudium Informatik
Abstract:

Diese Arbeit beschäftigt sich mit Möglichkeiten der Prognose von Fehleranzahlen, Fehlerdichten bzw. Fehlerraten in Software-Systemen. Dazu werden drei Hypothesen zur Diskussion gestellt. Anhand des Begriffes des Feldfehlers werden zunächst relevante Studien vorgestellt, analysiert und den Hypothesen gegenübergestellt. Unter einem Feldfehler versteht man dabei einen Software-Fehler, der auch nach der Veröffentlichung eines Software-Systems noch in diesem enthalten ist. Anschließend wird im Rahmen einer Fallstudie aus einem realen Projektumfeld eine Feldfehlerprognose durchgerechnet und analysiert. Auch die Fallstudie wird den Hypothesen dieser Arbeit gegenübergestellt. Wesentliche Voraussetzung für verlässliche Feldfehlerprognosen ist die ausreichende Verfügbarkeit einer breiten Palette von Metriken sowie der zugehörigen Fehlerdaten auch aus der Vergangenheit. Wird dies nicht bereits zu Beginn eines Projektes oder einer Software-Produktentwicklung berücksichtigt, kommt es durch eingeschränkte Verfügbarkeit von Metriken (kann man auch als Prediktoren des Prognosemodells auffassen) bzw. einer zu geringen Zahl von historischen Daten zu schlechten Feldfehlerprognosen.

Diplomarbeitsposter Platzer Werner

Werner Platzer

Diplomstudium Informatik
Abstract:

die Smartphones.

Diplomarbeitsposter Platzgummer Gerd

Gerd Platzgummer

Diplomstudium Informatik
Abstract:

Selbstorganisierende Karten (Self-Organizing Maps, SOMs) sind ein wirksames und populäres Mittel, um große Datenmengen zu analysieren, zu interpretieren und die Ergebnisse in weiterer Folge zu visualisieren. Sie projizieren hochdimensionale Grunddaten in einen vom Menschen leichter zu verstehenden niedrigdimensionalen Raum mit der Aufgabe, diese Komprimierung mit möglichst wenig Informationsverlust zu verbinden. Es existiert eine Vielzahl an verschiedenartigen Methoden zur Messung der Qualität Selbstorganisierender Karten beziehungsweise einzelner Eigenschaften von SOMs. Diese Arbeit beschreibt sieben populäre Qualitätsmaße zur Messung von Topologieerhaltung und Vektorquantisierung Selbstorganisierender Karten. Darauf aufbauend wird der Versuch unternommen, diese Maße anhand eines speziellen künstlichen Datensets zu evaluieren. Dies wird durch Variation der Kartengröße, der Trainingsiterationen und unter Berücksichtigung der Datenbeschaffenheit des Datensets erreicht. Die resultierenden Beobachtungen fließen anschließend in die Qualitätsuntersuchung von Karten auf Real-World-Daten ein. Diese Experimente dienen der Untersuchung der Frage, inwiefern die vorgestellten Maße Rückschlüsse auf die Beschaffenheit der Eingabedaten und die Charakteristik der daraus resultierenden Karte beziffern können. Zusätzlich wird der allgemeine Einfluss der Eigenschaften ”Kartengröße“ und ”Anzahl der Trainingsiterationen“ auf die Fehlerwerte für die gesamte Karte beziffert und interpretiert.

Diplomarbeitsposter Rainer Thomas

Thomas Rainer

Diplomstudium Informatik
Abstract:

Spam-Nachrichten stellen ein immer größeres Problem im E-Mail-Verkehr dar. EMail- Provider stehen zunehmend in der Pflicht aktiv gegen Spam vorzugehen. Zur Anwendung kommen neben statischen Verfahren, wie DNS-basierte Blacklists oder ähnliches, auch selbstlernende Filter, die sich in der Praxis als sehr effektiv erwiesen haben. Um die eigene E-Mail-Adresse erst gar nicht in die Hände von Spammern gelangen zu lassen, existieren verschiedene Maßnahmen, die das Ausspähen von EMail- Adressen auf Websites verhindern. Ein geändertes Benutzerverhalten und die Verwendung vonWegwerf-Adressen erschweren die Arbeit der Spammer zusätzlich. Diese Arbeit beschäftigt sich mit der Integration mehrerer Filtermethoden in eine einheitliche Benutzerumgebung. Hierfür werden sämtliche Benutzerdaten und Filterinformationen in einer MySQL-Datenbank abgelegt. Das Einsehen der Filteraktivitäten und das Bearbeiten der Einstellungen erfolgt mit Hilfe eines einfach zu bedienendenWeb-Interface. Durch realitätsnahe Tests mit unterschiedlichen Filter-Einstellungen lassen sich die verschiedenen Verfahren direkt miteinander vergleichen. Aufgrund der erzielten Ergebnisse kann das Spam-Filter Gateway durchaus auch in professionellen Umgebungen eingesetzt werden.

Diplomarbeitsposter Rieschl Werner

Werner Rieschl

Wirtschaftsinformatik
Abstract:

Software Produkte begleiten uns überall in unserem täglichen Leben. Qualitativ hochwertige Software muss gemäß den Spezifikationen mit Hilfe von verschiedenen Entwicklungs- und Qualitätssicherungsmethoden validiert und verifiziert werden. Die Anwendung von speziellen Methoden konzentriert sich meist auf die Evaluierung eines Dokuments, die Ergebnisse werden aber selten als Basis für weitere Qualitätsmaßnahmen herangezogen.[52] Daher ist es sinnvoll verschiedene Methoden in unterschiedlichen Projektphasen zu kombinieren, damit deren Effektivität und somit die Qualität des Produktes steigt. Spezielle Charakteristiken können in verschiede Gruppen von Eigenschaften eingeteilt werden, die sich auf die Auswahl von bewährten Methoden auswirken. Einige Qualitätsmethoden sind für spezielle Projekttypen und Artefakte besser geeignet als andere.[17] Ziel dieser Arbeit ist, den Entscheidungsprozess von einem globalen Projektstandpunkt aus zu betrachten. Dies wird über eine Kombination von unterschiedlichen QS-Methoden erreicht, die sich mit speziellen Aspekten von Software Projekten beschäftigen, wodurch sich die positiven Effekte dieser Methoden erhöhen. Aufgrund der oben genannten Aspekte ist der Vergleich von projektrelevanten Daten mit verfügbaren Qualitätsmethoden über definierte Kriterien notwendig. Daher beschäftigt sich diese Arbeit mit einem Ansatz der auf Attributen basiert, um verschiedene Projekttypen mit verfügbaren QM-Methoden gezielt vergleichen zu können, damit die Projektverantwortlichen eine automatisierte Unterstützung bei der Auswahl der geeigneten Methoden haben. Dies fällt in den Bereich der kontinuierlichen Software Produkt und Prozessverbesserung. Zur Umsetzung werden grundlegende Metriken zur Schaffung einer Vergleichsbasis definiert. Weiters wird ein Prototyp zur Bereitstellung von Qualitätsstrategien entwickelt, die sich aus einzelnen QS-Methoden zusammensetzen, um die Effektivität und die Effizienz von Softwareprozessen zu optimieren.

Diplomarbeitsposter Rosenauer Gregor Bernhard

Gregor Bernhard Rosenauer

Individuelles Diplomstudium New Media Design and Engineering
Abstract:

Die gegenseitige Integration von heterogenen Tools mit dem Ziel, den Arbeitsablauf von Benutzern zu optimieren, ist Gegenstand andauernder Forschung. Die angestrebte Lösung soll Benutzern und Teams ermöglichen, bestehende Tools auf transparente Art miteinander zu verbinden. Funktionalität und Daten von einzelnen Tools können von jedem anderen Tool aus verwendet werden; Gemeinsamkeiten im Datenmodell werden ausgenützt, indem man Relationen zwischen zusammengehörenden Datenelementen erzeugt. Eine besondere Herausforderung stellt die flexible Integration von bestehenden, meist kommerziellen Tools dar, wie sie z.B. im Ingenieurwesen vorkommen. Diese bieten oft nur proprietäre und nicht offen zugängliche Schnittstellen an, was das Design einer Integrationslösung in vielerlei Hinsicht einschränkt. Es wurden bereits verschiedene Frameworks und Standards entwickelt, wie z.B. CDIF, PCTE, OTIF, BOOST oder auch allgemeine Tool-Plattformen wie z.B. Eclipse. Diese lösen aber jeweils nur einen Teil des Problems und bieten keinen ganzheitlichen, dynamischen Ansatz für die Integration von bestehenden bzw. proprietären Tools. Eine erfolgreiche Lösung für die Tool-Integration muss die Anforderungen verschiedener Gruppen gleichermaßen erfüllen: Für den Endbenutzer steht eine nahtlose Integration zwischen Tools im Vordergrund, die es ermöglicht, transparent über Tool-Grenzen hinweg zu arbeiten. Entwickler wünschen sich einen einfachen Weg, um Tools in ein lose gekoppeltes und dynamisches System einzubinden, das leicht um neue Tools erweiterbar und an geänderte Schnittstellen anpassbar ist. Tool-Hersteller wollen unabhängig bleiben und zusätzliche Kosten für die Neuimplementierung oder Anpassung von Tools an Integrationslösungen vermeiden, bieten aber als Ausgleich oft Skripting- oder sprachspezifische Schnittstellen für die Anbindung an andere Anwendungen an, die man für die Tool-Integration nützen kann. Diese Arbeit zeigt, dass die Tool-Integration am Deskto...

Diplomarbeitsposter Ruzicka Dietmar Rudolf

Dietmar Rudolf Ruzicka

Diplomstudium Informatik
Abstract:

Facility Management und Netzwerk Management sind zwei große Managementdisziplinen. Während Facility Management sich als allumfassendes ganzheitliches Management von Immobilien darstellt, beschränkt sich Netzwerk Management auf die Nutzungsphase der Ressourcen. Diese Ressourcen sind das Gebäude selbst, das Grundstück worauf es steht und alle Einrichtungen innerhalb, etwa ein Server in der EDV. Die der Arbeit zu Grunde liegende Frage ist, können Network Management Techniques im Facility Management vorteilhaft zur Anwendung kommen? Die Untersuchung der Definitionen von Facility Management und Netzwerk Management in den Normen und die konstruktive Methode der praktischen Umsetzung der These zeigen: Die fünf Funktional Areas aus dem Netzwerkwerk Management definierten Techniken, die in den Nutzungsphase einer Immobile sehr gut anwendbar sind. Die fünf Areas: Fault, Configuration, Accounting, Performance und Security Management können in den drei Bereichen Technisches, Infrastrukturelles und Kaufmännisches Gebäude Management viele Aufgaben übernehmen. Gebäude Management deckt die Nutzungsphase, die kostenintensivste und längste Phase des Facility Management, vollständig ab. Die praktische Umsetzung im Hotelumfeld belegt die Anwendbarkeit der Ideen.

Diplomarbeitsposter Schedenig Marian

Marian Schedenig

Diplomstudium Informatik
Abstract:

Diese Arbeit fasst die Entstehung von Enterprise Application Integration und Event-Verarbeitung zusammen und behandelt dabei insbesondere den Enterprise Service Bus sowie das SEDA-Konzept, welche in der Mule-Plattform umgesetzt sind. "Complex Event Processing" wird beschrieben und bestehende Ansätze für "Complex Event Correlation" werden vorgestellt, was zur Besprechung von Naiad führt, worin diese Konzepte aufsetzend auf dem Mule-Framework implementiert wurden. Naiad erlaubt es Entwicklern, die Beziehungen zwischen Eventtypen durch deklarative Event-Korrelationen in Form von XML-Dateien zu beschreiben. Jede beliebige Datenstruktur kann in das Framework übernommen und als Event zur Korrelierung genützt werden. Nach der Korrelierung der Events können Entwickler Naiads Correlation Sessions nutzen, um Daten, welche für eine Gruppe von Events relevant sind, zu sammeln und speichern, sodass die entsprechenden Aktionen ausgeführt werden können, sobald alle nötigen Events eingetroffen sind. Eine einheitliche Schnittstelle löst den Zugriff auf Event-Daten vom konkreten Format der Events und führt so zu übersichtlicherem und leichter portierbarem Code. Folglich können sich Applikationsentwickler auf die Businesslogik konzentrieren anstatt sich um komplexe, asynchrone Techniken zur Zuordnung und Korrelierung asynchroner, systemnaher Nachrichten zu sorgen. Das Framework wurde modular angelegt, um höchstmögliche Flexibilität zu bieten. Alle Teile des Systems können erweitert oder durch eigene Implementierungen ersetzt werden, sodass das Framework an bestehende Systeme angepasst und integriert werden kann. Mule als Basis bietet zusätzlich eine große Zahl an Konnektoren für die Interaktion mit vielen etablierten Kommunikationsstandards.

Diplomarbeitsposter Schimper Kathrin

Kathrin Schimper

Masterstudium Business Informatics
Abstract:

Seit einigen Jahren wird der Begriff Kompetenz immer mehr zum Schlagwort in der Wirtschafts- und Arbeitswelt. Von Kernkompetenz über Fachkompetenz bis zur emotionalen Kompetenz reicht das Spektrum dieses Ausdrucks. Meist ist nicht klar, was genau unter dem Begriff Kompetenz verstanden wird, der je nach Hintergrund sehr unterschiedlich ausgelegt werden kann und wird. Diese Arbeit beschäftigt sich mit der Analyse von Kompetenzen im Bereich Software Engineering und Projektmanagement, sowie der Messung von Kompetenzen und der Kompetenzentwicklung von Studierenden während einer Lehrveranstaltung an der Technischen Universität Wien. Zunächst wird der Stand der Forschung im Bereich Kompetenzen genauer erörtert. Anschließend werden alle Kompetenzen eines Software Engineering Projekts identifiziert und definiert. Mit den ermittelten Kompetenzen wird die Ontologie eines Kompetenzmanagementsystems erweitert, welches an der Technischen Universität Wien entwickelt wird. Außerdem wird damit eine Methode zur Messung von Kompetenzen und der Kompetenzentwicklung von Studierenden für die praktische Laborübung "Software Engineering und Projektmanagement" entwickelt. Einerseits werden damit die Lehrveranstaltungsleiter und die Tutoren bei der Bewertung der Studierenden unterstützt. Andererseits wird den Studierenden bei der Rollenwahl und Zielsetzung eine Hilfestellung dargeboten und sie erhalten eine Übersicht über ihre Kompetenzen und deren Entwicklung durch die Lehrveranstaltung. Am Anfang der Lehrveranstaltung wird die Ausprägung der einzelnen Kompetenzen, welche durch die Lehrveranstaltung entwickelt werden können, erhoben. Am Ende wird die Kompetenzentwicklung dieser Kompetenzen gemessen. Bei der Evaluierung dieser Methode wurden die Kompetenzen und deren Entwicklung bei Studierenden, die an der Lehrveranstaltung teilnahmen, unter bestimmten Vorrausetzungen, gemessen. Schlussendlich wird beschrieben, wie die Ergebnisse in das Kompetenzmanagementsystem einfließen können.

Diplomarbeitsposter Schnabl Stefan

Stefan Schnabl

Masterstudium Informatikmanagement
Abstract:

Der Bereich des eLearning braucht nicht noch mehr theoretischen Unterbau; er braucht praktische Hilfe bei der Erstellung von Inhalten! In diesem Sinne möchte diese Arbeit helfen, qualitativ hochwertigen eLearning Inhalt zu erstellen. Die Arbeit stellt sich mit der Motivation vor, warum jemand einen Text wie diesen braucht und lesen sollte. Die Triebfeder ist hierbei, dass es keinen ausreichenden Hintergrund für Screen Recording gibt. Die folgenden Aspekte des eLearning geben ein fundamentales Verständnis für die Bedeutung der eLearning Theorie im Bereich des Screen Recording (SR). Dies ist von entscheidender Bedeutung für die weitere Argumentation der Definition von SR. Durch die Definition von SR stellt die Arbeit detaillierte Informationen zu SR und Screen Casts (SCs) bereit. Es werden die unterschiedlichen SC Typen vorgestellt, wie auch eine Checkliste für potentielle Alternativen zu SR. Die Argumentation endet in einer detaillierten Beschreibung von SC Ausgabeformaten als physische Repräsentation eines theoretischen SC Objektes. Das Enrichment von SCs bildet Motivation um den SC als Element innerhalb einer Strukturierungsmöglichkeit für höhere eLEarning Ebenen (z.B. Kurse) zu sehen. Ausgestattet mit diesem Wissen kombiniert die Arbeit Theorie und Praxis durch die Präsentation von SR Software. Zusammenfassend kann über die präsentierte Theorie mit Hilfe der Case Studies reflektiert werden. Diese präsentieren die gesamte Theorie in der praktischen Anwendung.

Diplomarbeitsposter Strodl Stephan

Stephan Strodl

Masterstudium Software Engineering & Internet Computing
Abstract:

Wesentliche Teile unseres kulturelles Erbe wie auch wirtschaftlich oder rechtliche wichtige Informationen liegen immer häufiger ausschließlich in elektronischer Form vor. Auch abseits von Museen, Bibliotheken und Archiven wächst die Zahl von Institutionen aus unterschiedlichen Bereichen, die die Notwendigkeit erkennen, digitale Informationen langfristig zu bewahren. Die rasante Entwicklung von Software und Hardware, vor allem aber von Datenformaten gefährdet die langfristige Verwendbarkeit von digitalen Objekten. Digitale Langzeitarchivierung ist in den letzten Jahren zu einem aktiven Forschungsgebiet geworden, in dem Lösungsansätze für die langfristige Archivierung von digitalen Informationen untersucht werden. Das Hauptaugenmerk der Forschung für Langzeitarchivierungsstrategien liegt auf Migration und Emulation von digitalen Objekten. Die Auswahl von geeigneten Strategien und der verwendeten Werkzeuge für eine spezifische Sammlung von Objekten ist ein komplexe Aufgabe, die von den spezifischen Anforderungen einer Situation abhängig ist. Im Planets Projekt wurde eine Planungsmethode entwickelt, mit der eine objektive, nachvollziehbare und wiederholbare Bewertung von unterschiedlichen Strategien und Werkzeugen für spezifischen Anforderungen durchgeführt werden kann. Das OAIS Modell stellt ein Referenzmodell für ein Archivierungssystem dar, mit dem primären Ziel, Informationen für eine ausgewiesene Zielgruppe für unbestimmte Zeit zu erhalten. Im Bereich der digitaler Bibliotheken bildet das Modell ein Standardreferenzmodell und wurde 2003 als ISO Standard 14721:2003 aufgenommen. Etliche Entwicklungen für Archivierungslösungen basieren auf diesem Modell, aber keine dieser Entwicklungen besitzt eine klare Vorgehensweise für das Evaluieren und Auswählen von Langzeitarchivierungsstrategien. In dieser Arbeit wurde die Plantes Planungsmethode in Beziehung zum OAIS Modell gesetzt. Die Informationsflüsse zwischen den einzelnen Schritten der Planungsmethode und den Einheit...

Diplomarbeitsposter Thullner Robert

Robert Thullner

Masterstudium Software Engineering & Internet Computing
Abstract:

Enterprise Integration Patterns / Open Source / ActiveMQ / Camel / ServiceMix / Mule / Message based Integration / Enterprise Application Integration

Diplomarbeitsposter Unterasinger Lukas

Lukas Unterasinger

Diplomstudium Informatik
Abstract:

Intensivmedizin -- Patientendokumentation -- Neonatologie -- Intensivstation -- PDMS -- Patientendaten -- Qualitätssicherung -- Systemintegration -- Datenaustausch -- Datenexport -- Informationsgewinnung -- Informationsaufbereitung -- Datenaggregation -- zeitkritisch --Zurodungsregeln -- adaptierbar -- konfigurierbar;

Diplomarbeitsposter Url Christian Bernhard

Christian Bernhard Url

Masterstudium Business Informatics
Abstract:

Die Arbeit „An Interactive e-Learning Approach for Information Security Related Content” präsentiert ein e-Learning Konzept im Kontext einer Universitätslehrveranstaltung mit dem Thema Informationssicherheit in IT-Systemen. Die zwei Hauptgründe für das Anbieten von Teilen der Lehrveranstaltung als online-Kurs sind folgende: - Ein online-Kurs stellt interaktive Lernübungen für eine hohe Anzahl Studierender zur Verfügung, die dadurch Themen durch praktische Erfahrung erarbeiten können. - Die Beurteilung kann halbautomatisch erfolgen, wodurch die Lehrveranstaltungsleitung entlastet wird. Oft ist es hilfreich eine Thematik dadurch verstehen zu lernen, indem man ein praktisches Problem des Bereichs selbstständig löst und dabei gelerntes anwenden kann. Praktische Beispiele führen Studierende Aspekte vor Augen, die bei einem rein theoretischen Zugang vielleicht nicht aufgefallen wären. Im Zuge der Bearbeitung einer solchen Aufgabe werden viele Fragen aufkommen, welche zur Lösung selbstständig beantwortet werden müssen. Praktische Übungen in Computerlabors benötigen umfangreiche Betreuung und technische Infrastruktur. Ab einer gewissen Anzahl von Lehrveranstaltungsteilnehmern kann eine solche Betreuung nicht mehr geboten werden. Daher wurde am Institut für Softwaretechnik und Interaktive Systeme der Technischen Universität Wien die Entscheidung getroffen, die Nutzung von interaktiven online-Aufgaben für eine Lehrveranstaltung zum Thema Informationssicherheit in IT-Systemen zu evaluieren. Auf diese Art wird die technische Infrastruktur (im Wesentlichen ein Computer) von jedem Studierenden selbst zur Verfügung gestellt und man erhält ein System, welches mit der Zahl der Teilnehmer skaliert. Zudem wird der Betreuungsaufwand der Lehrveranstaltungsleitung durch die Möglichkeit einer halbautomatisierten Beurteilung durch das System reduziert. Dies ermöglicht mehr Studierende mit weniger Betreuern zu bedienen. Die vorliegende Arbeit stellt das theoretische Fundament eines sol...

Diplomarbeitsposter Wachter Bernhard

Bernhard Wachter

Masterstudium Software Engineering & Internet Computing
Abstract:

Bei der Web-Archivierung werden Web-Dokumente gesammelt und dauerhaft abgelegt. Die entstehen Archive wachsen rasant und enthalten auch sensitive Daten. Um  Missbrauch vorzubeugen müssen sensitive Daten identifiziert und gegen unbefugte Zugriffe gesichert werden. Dadurch werden Anwendungsfälle denkbar in welchen auf Basis von sensitiven Daten Auswertungen vorgenommen werden ohne dabei die Daten selbst preis zugeben. Bei der Genre-Analyse werden Web-Dokumente aufgrund ihrer Form sowie des Stils einer Seite unabhängig vom eigentlichen Thema klassifiziert. Zielsetzung dieser Arbeit ist es, diese Methode dahingehend zu erweitern, dass es einem Archivierungssystem von Web-Dokumenten möglich ist, private und öffentliche Elemente von Web-Dokumenten unterscheiden zu können. Bisherige Ansätze in diesem Bereich agieren ausschließlich auf Dokumentenebene. Web-Dokumente enthalten jedoch häufig mehrere unterschiedliche Genres. Diese Arbeit entwickelt einen Ansatz zur Erkennung von zusammengehörenden Textsegmenten, welcher Absätze und gegebenenfalls damit verbundene Genre-Übergänge erkennt. Darauf aufbauend wird ein Ansatz für die Klassifizierung von privaten und öffentlichen Elementen von Web-Dokumenten auf Dokumenten- und Absatzebene vorgestellt.

Diplomarbeitsposter Webley Andreas

Andreas Webley

Masterstudium Business Informatics
Abstract:

Autonomic Business Prozess Management System; Goal-oriented Prozess Model; Declerative Prozess Model; BDI-Agenten;

Diplomarbeitsposter Wronski Daniel

Daniel Wronski

Diplomstudium Informatik
Abstract:

Aufgrund der immer größer werdenden Komplexität von Webservice-Lösungen wurde es notwendig, nicht nur die Funktionalität jedes einzelnen Webservices auszutesten, was verschiedene bereits erhältliche Werkzeuge schon beherrschen, sondern auch die Fähigkeit zu haben, die Robustheit des Interaktionsprozesses einer Webservice-Kompositionssoftware mit Webservices durch Evaluierung ihres Verhaltens unter kontrollierbaren Testbedingungen zu prüfen. Mittels direktem Beeinträchtigen der Dienstgüte (QoS) durch Simulation verschiedenster Fehler sowohl funktionaler als auch nichtfunktionaler Art, als auch durch Loggen der Simulationsdaten eines gegebenen Szenarios, wird eine tiefgreifende Untersuchung der zu testenden Software möglich. In dieser Arbeit wird ein verteiltes Simulationsframework vorgestellt, bestehend aus Komponenten zur Erstellung jeder gegebenen Anzahl an Test-Webservices sowie deren Kompilierung und Deployment, und weiters aus Komponenten zum Loggen und zur Auswertung der getesteten Szenarien.

Arbeitsbereich (vor 2018) Interactive Media Systems

Diplomarbeitsposter Tschurlovits Marie-Theres

Marie-Theres Tschurlovits

Masterstudium Medieninformatik
Abstract:

In dieser Arbeit wird eine Reihe von Geometrie Software Paketen präsentiert, die sowohl zu statischen als auch zu dynamischen Konstruktionen führen. Anschließend wird Construct3D eingeführt, eine Software zu Erstellung dyna\-mischer 3D Konstruktionen, die auf dem Augmented Reality System Studierstube basiert. Der größte Vorteil von Construct3D gegenüber anderen dynamischen Geometrie Software Paketen ist die Option mit Hilfe eines Head mounted displays die echte Umgebung angereichert mit virtuellen Inhalten betrachten zu können. Das eröffnet den Usern, vornehmlich Oberstufenschülern und Studenten, die Möglichkeit im "richtigen" dreidimensionalen Raum dreidimensionale Objekte zu konstruieren, zu erforschen und in weiterer Folge damit zu interagieren. Der praktische Teil dieser Arbeit umfasste die Implementierung einer Reihe von neuen Funktionen für Construct3D. Es wurden einige Werkzeuge entwickelt um das Verständnis des Begriffs der Krümmung von Kurven und Flächen zu fördern. Um die bereits vorhandenen Sweep Funktionen zu ergänzen wurden außerdem Schraub- und Schiebeflächen implementiert.

Arbeitsbereich (vor 2018) Business Informatics

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Philipp Huber, Gerald Müller, Christian Pichler, Christian Sokop
Diplomarbeitsposter Müller Abraham

Abraham Müller

Masterstudium Business Informatics
Abstract:

Viele der momentan existierenden Ansätze sowie Sprachen zur Modelltransformation sind metamodell-basiert. Sie setzen detaillierte Kenntnisse der Metamodellebene und deren Syntax voraus. Meist wird die Transformation durch ein vollständiges Regelwerk auf der Metaebene bewerkstelligt. Dazu müssen dem Benutzer entweder die Konzepte dieser Ebene bekannt sein, oder er vertraut auf eine eventuell vorhandene Lösung. Einen neuen benutzerfreundlichen Ansatz dafür beschreibt Model Transformation By-Example (MTBE). Der Benutzer arbeitet mit der ihm vertrauten Syntax auf Instanzebene und kann dort Mappings zwischen Elementen zweier verschiedener Modelle definieren, aus denen automatisch Regeln generiert werden. Das Ergebnis der Analyse kann während der Erstellung der Korrespondenzen laufend überprüft werden, sodass es möglich ist, diese iterativ zu bearbeiten, um schlussendlich alle nötigen Regeln abzuleiten. Des Weiteren erlaubt ein solches Framework das Erweitern der Analyse und ermöglicht es somit, auf diesen Schritt direkt Einfluss zu nehmen. In dieser Arbeit wird ein Framework für MTBE auf Basis des Graphical Modeling Framework (GMF) umgesetzt. Die Implementierung von MTBE wird in ein Eclipse Plug-in eingebettet. Mappings auf der Modellebene können mit Hilfe eines automatisch generierten GMF-Editors gezeichnet werden. Eine so genannte Analyzer Komponente soll dann diese Mappings auswerten und daraus ein Weaving Modell beziehungsweise den ATL Code generieren. Für den in dieser Arbeit vorgestellten Prototyp wurden drei Analysealgorithmen entwickelt. Die Implementierung wurde so umgesetzt, dass sie über eine integrierte Schnittstelle noch beliebig erweiterbar ist. Zusätzlich zu diesem Prototyp wurden zwei GMF-Editoren für die beiden Modellierungssprachen UML und ER entwickelt, welche als Beispielanwendung herangezogen werden, um Funktion, sowie entwickelte Algorithmen anhand einer Transformation zwischen den Sprachen UML und ER zu testen und auch zu präsentieren.

Diplomarbeitsposter Yücel Ahu Zeynep

Ahu Zeynep Yücel

Wirtschaftsinformatik
Abstract:

Web-Anwendungen haben sich über die letzten Jahrzehnte stark verändert. Die erste Generation zielte auf die einfache Bereitstellung von Informationen mittels statischer Websites. Durch die zweite Generation wurde eine neue Dimension eröffnet, wobei Web-Anwendungen nicht mehr nur als Mittel zur Informationsdarstellung gesehen werden, sondern auch vielfältige Dienste zur Verfügung stellen. Durch die daraus folgende Erhöhung des Entwicklungsaufwands von Web- Anwendungen entsteht die Notwendigkeit, die Entwicklung durch die Verwendung von modellbasierten Entwicklungsmethoden und spezifischen Web-Modellierungssprachen zu unterstützen. Die modellgetriebene Softwareentwicklung hat durch die Model Driven Architecture Initiative (MDA) stark an Bedeutung gewonnen. MDA zielt im Allgemeinen darauf ab, Modellierungssprachen aus verschiedenen Bereichen zu standardisieren, um Interoperabilität zwischen den verschiedenen Modellierungswerkzeugen zu schaffen. Jedoch wird MDA zurzeit nur als eine Vision gesehen, da die notwendige Basis für die Realisierung fehlt. Betroffen davon ist auch der Web Engineering Bereich, da bestehende Web-Modellierungsmethoden im Sinne der MDA nicht vollständig modellgetrieben sind. Es fehlen die entsprechenden Metamodelle zu den Web- Modellierungssprachen und die Modelltransformationen, um Modellaustausch zwischen den Web- Modellierungswerkzeugen zu gewährleisten. Diese Arbeit versucht eine erste Lösung für das Interoperabilitätsproblem zwischen den verschiedenen Web-Modellierungswerkzeugen umzusetzen. Ob eine verlustfreie Abbildung zwischen eingesetzten Web-Modellierungssprachen entwickelt werden kann, bildet die zentrale Forschungsfrage, die im Zuge dieser Arbeit beantwortet wird. Um diese Forschungsfrage zu beantworten, wird folgende Methode eingesetzt. Im ersten Teil der Arbeit werden die wesentlichen Eigenschaften von Web- Modellierungssprachen erklärt und anhand der entsprechenden Tools untersucht. Im zweiten Teil der Arbeit werden die Metamodell...

Andere Institute der Technischen Universität Wien

(vor 2018) Zentrum für Informations- und Facilitymanagement

Diplomarbeitsposter Habicher Markus

Markus Habicher

Diplomstudium Informatik
Abstract:

In der vorliegenden Arbeit soll ein detailliertes Konzept für ein Computersystem erstellt werden, das den Zugang diverser Institutionen zu einem ERP System ermöglicht und landläufig als so genanntes 'Internet Gateway' bezeichnet werden kann. Dieses System übernimmt die Aufgabe eines zentralen Zugangsknotenpunktes, der im speziellen Anwendungsfall ein Netzwerk aus SAP Applikationsservern gegen unerwünschte Zugriffe aus dem Internet absichert und deren betriebswirtschaftliche Funktionen nur einem eindeutig definierten Benutzerkreis aus vielen verschiedenen Institutionen zur Verfügung stellt. Bedingt durch die wichtige Rolle als Vermittlungsstelle für die Verbindungen einer Vielzahl autorisierter Nutzer zu einer Reihe unterschiedlicher Anwendungen ist der reibungslose Betrieb dieses Systems von höchster Bedeutung. Nach sorgfältiger Analyse der konkreten Anforderungen, entsprechender Literaturrecherche sowie der Evaluation möglicher Lösungsvarianten wurde das in dieser Arbeit behandelte Konzept umgesetzt, bei dem eine größtmögliche Ausfallsicherheit durch die Redundanz der eingesetzten Komponenten erreicht wird. Zu diesem Zweck werden zwei identische, von einander physisch unabhängige Systeme betrieben, die ihr korrektes Arbeiten ständig gegenseitig prüfen. Im Fehlerfall des primären aktiven Gateways übernimmt der zweite Rechner innerhalb kürzester Zeit dessen Aufgaben und stellt so einen nahezu unterbrechungsfreien Zugang zu den SAP Anwendungen sicher.

(vor 2018) Institut für Analysis und Scientific Computing

Diplomarbeitsposter Kaunang Gemma Ferdinand

Gemma Ferdinand Kaunang

Masterstudium Technische Informatik
Abstract:

Before a new product is launched to the market, a company have to test the product and make sure that the product is ready and presentable, especially if the product is a problem solving system, such as control system, automated system or self-learning system. Testing is a highly cost consuming yet unavoidable activity. Therefore to reduce cost of production, company will use methods like simulation to test their product. There are so many simulation softwares in the market which offers different abilities and advantages. The various choices has makes it even more difficult for end-users (company) to choose which one is more suitable and useful for the company. On this thesis Three “comparison problem” based on electrotechnic will be compared each other by using four simulations software (Matlab/Simulink, Dymola, Mosilab and SimulationX), with different approaches to model of the system. The method used for this research is a literature study to have a deeper understanding about the behaviour and algorithm of the code from 4 different simulation softwares, the design model of three comparison problems and simulates these models to find the most suitable plot result. After a thorough research of these three comparison problems, conclusion can be made as follow: - Matlab is the only simulation software which able to simulate all calculation of matrix. - Stateflow, stategraph and statechart which can only model the equation with switching state, the harder the equation is, the longer time required to simulate the equation. - Dymola has the most variation type of modelling that needed in this thesis, the fastest time simulation is by dymola electrical model to simulate task d in comparison 3 = 0,015s, - SimulationX took the longest time in simulating task diode C in comparison 20 = 1307,6718s, Type of designer block in simulationX is very useful feature for expert user in defining their code in new element type - Below are the simulation timing ranking from fastest t...

Diplomarbeitsposter Kurz Gernot

Gernot Kurz

Masterstudium Medizinische Informatik
Abstract:

PICSO (Pressure Controlled Intermittend Coronary Sinus Occlusion) stellt eine nicht-medikamentöse Behandlungsart für Herzinfarktpatienten dar. Es handelt sich hierbei um eine Form der Kathetertherapie, die bei einem akuten Myocardinfarkt bzw. während einer Bypassoperation eingesetzt werden kann. Bei diesem Verfahren wird ein Ballonkatheter im Koronarsinus platziert und periodisch inflatiert. Daraus resultiert eine pulsartige Blutrückstauung in das Ischämiegebiet des Herzmuskels. Dessen Nährstoffversorgung erfolgt somit retrograd über das venöse System. Die Infarktgröße wird deutlich reduziert, die bei einem Herzinfarkt entstehenden toxischen Stoffe, welche für den Zelluntergang verantwortlich sind, werden ausgeschwemmt. Diese Anwendung wurde im Rahmen von Tierversuchen an Hand von Schweinen im AKH Wien getestet. Nachdem bei den Versuchstieren ein 15-minütiger Infarkt ausgelöst worden war, erfolgte die 2 ¾-stündige PICSO-Anwendung mit anschließender 60-minütiger Reperfusionsphase. Diese Diplomarbeit beschäftigt sich mit den Auswertungen der Signale, die während des Versuchs aufgezeichnet wurden. Es handelt sich dabei u.a. um den wichtigen Druckkurvenverlauf im Koronarsinus. So ein CSP-Zyklus besteht aus einer Inflations- und einer Deflationsphase. D.h., der Ballon wird im Gefäß zuerst aufgeblasen und danach wieder entleert. Für die Bestimmung der Herzratenvariabilität (HRV) ist eine Auswertung des EKG Signals erforderlich. Im Rahmen dieser Signalauswertungen soll geklärt werden, inwiefern sich die HRV in den einzelnen Phasen während der Intervention mit PICSO bzw. während der Inflations- und Deflationsphase ändert. Datenauswertungen ergaben zu Beginn der Inflationsphase eine mehr als doppelt so große Standardabweichung vom Mittelwert als gegen Ende der Inflationsphase. Da die Infarktgröße während des Tierversuchs nicht permanent messbar ist, erfolgt die Bestimmung der Infarktgröße mit Hilfe digitaler Bildaufnahmen vom entnommenen Herzen nach dem Tierversuch.

Diplomarbeitsposter Reitner Heiko Simon

Heiko Simon Reitner

Masterstudium Medizinische Informatik
Abstract:

Mit dem rasanten Anstieg an Rechenleistung und dem hohen Preisverfall bei leistungsfähigen Computern, hat die Computersimulation – die ja im Großen und Ganzen aus der rechenintensiven Lösung von Differentialgleichungen besteht – auch auf handelsüblichen Computern Einzug gehalten. Dies führte auch dazu, dass die Simulation von Nervenzellen einen Aufschwung erlebt hat. Simulationsumgebungen wie NEURON, GENESIS oder NEST ermöglichen heute die brauchbare Simulation von einer einzigen Nervenzelle bis zu ganzen Nervensystemen auf einem einzelnen Computer. Im Zuge dieser Arbeit kam die Idee, das Simulationstool NEURON auf seine Brauchbarkeit für Unterrichtszwecke zu evaluieren. Es sollte den theoretischen Lehrstoff über Nerven anschaulich illustrieren und das Zusammenspiel der Neuronen demonstrieren. Zu diesem Zweck wurde mit einigen Schülern eines Oberstufengymnasiums sowie mit einigen Studenten der Biologie bzw. Medizin die Simulationsumgebung getestet. Nach einer eingehenden Evaluationsphase schilderten die Schüler bzw. Studenten ihre Erfahrungen und Eindrücke mit dem Simulationstool. Gemeinsam wurden anschließend Schwierigkeiten bei der Benutzung aufgezeigt. Die Nutzung des Simulationstools stellte sich gemeinhin als sinnvoll und hilfreich zum besseren Verständnis des Unterrichtsstoffs heraus. Auf Grund dessen wurden gemeinsam mit den Schülern und Studenten, anhand der getätigten Erfahrungen und dabei auftretenden Schwierigkeiten, Verbesserungsvorschläge für die künftige, noch bessere und einfachere Benutzung von NEURON, erarbeitet. Neben einer allgemeinen biologischen Einführung, findet man in der vorliegenden Arbeit ein umfangreiches Kapitel über NEURON, sowie vergleichbare Simulationsumgebungen. Auch der plattformunabhängigen XML-Modellbeschreibungssprache NeuroML ist ein Kapitel gewidmet. Die ausführliche Schilderung der Evaluierung inkl. Erläuterung der Verbesserungsvorschläge sowie ein Ausblick schließen diese Arbeit ab.

(vor 2018) Institut für Statistik und Wahrscheinlichkeitstheorie

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Nadeem Ahmed, Radu Ion
Diplomarbeitsposter Harich Markus

Markus Harich

Masterstudium Informatikmanagement
Abstract:

Vor einiger Zeit war der Begriff „Internet“ vielen Menschen nicht geläufig. Die Verbreitung und Benützung des Mediums Internet hat sich in den letzten Jahren jedoch rasant verändert. Heute weiß bereits jedes Kind, was das Internet ist und wie man es benutzt. Google, Chatrooms bzw. Onlinegames gehören bereits zum Alltag. Praktisch jedermann hat mittlerweile einen Internetzugang zu Hause, und es ist beinahe selbstverständlich, sich Informationen bzw. Musik aus dem Netz zu „saugen“. Durch die häufige und regelmäßige Benutzung des Internets wird es immer undurchsichtiger, wie viel Zeit man täglich online verbringt. Die Schwelle zwischen einer „normalen“, sinnvollen und zielorientierten Nutzung dieses Mediums kann schnell überschritten werden, was zu einer abnormen Nutzung und im schlimmsten Falle sogar zur Sucht führen kann. Viele nehmen diese Form der Sucht nicht wahr bzw. belächeln sie, jedoch gibt es schon genügend Studien bzw. Vorkommnisse, die die Internetsucht bestätigen. Durch den zunehmenden Internetkonsum werden viele Sachen vernachlässigt bzw. gar nicht mehr getan. Die sozialen Kontakte werden nicht mehr gepflegt, die eigene Beziehung leidet darunter und auch alltägliche Dinge, wie z.B. einkaufen gehen oder putzen, werden nicht mehr wahrgenommen. Ziel dieser Arbeit ist es, dem Leser einen Einblick in die Problematik des Internetgebrauches zu geben und es soll bewusst gemacht werden, dass eine neue Form der Sucht im Anmarsch ist. Weiters liegt das Interesse dieser Arbeit darin, anhand aktueller Studien, Untersuchungen und Umfragen einen Einblick in den Wandel des Sozialverhaltens durch den Einfluss des Computers und Internets zu geben.

(vor 2018) Institut für Geoinformation und Kartographie

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Marianne Herren, Roman Novak, Johannes Thiery
Diplomarbeitsposter Eggenhofer Robert

Robert Eggenhofer

Masterstudium Informatikmanagement
Abstract:

Keine Angaben

(vor 2018) Institut für interdisziplinäres Bauprozessmanagement

Diplomarbeitsposter Dejmek Dominik

Dominik Dejmek

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Der Arbeitskreis „Dauerhaftigkeit - Brücke“ der Österreichische Vereinigung für Beton- und Bautechnik hat das Institut für interdisziplinäres Bauprozessmanagement beauftragt ein Programm zur Berechnung der Kosten einer Brücke über den gesamten Lebenszyklus zu entwickeln. Um diese Lebenszykluskosten zu berechnen, muss die Brücke in drei Brückenbestandteile unterteilt werden: Unterbau, Rohtragwerk, Ausrüstungsteile. Das Programm besitzt neben der Berechnung der Lebenszykluskosten auch eine Darstellung des unverzinsten Kostenverlaufs sowie eine Berechnung von Ablösekosten. Mit der Methode Kostenverlauf unverzinst kann die Entstehung der Kosten (Errichtungskosten, jährliche Unterhaltskosten, Abbruchkosten) chronologisch dargestellt werden. Dies bietet eine gute Übersicht über Zeitpunkt und Höhe anfallender Kosten. Beim Lebenszyklusmodell hingegen werden die verzinsten Kosten dargestellt. Es werden Bar- und Endwert der Lebenszykluskosten berechnet. Somit kann die Brücke bewertet und mit anderen Brückenvarianten verglichen werden. Als Grundlage wird der unverzinste Kostenverlauf herangezogen und zusätzlich mit 4% verzinst. Das Ablösemodell wird beim Wechsel des Besitzers der Brücke angewandt, da dabei eine Ablöse fällig wird. Hierbei ist zu unterscheiden, ob die Brücke am Ende der Lebensdauer wieder neu hergestellt wird oder nicht. Zusätzliche Grafiken illustrieren die Verläufe der einzelnen Berechnungsmethoden. Diese Grafiken können sowohl im Endbericht als auch direkt im Programm angezeigt werden. Sie sind für die einzelnen Brückenbestandteile sowie für die Summe dieser erstellbar. Das Programm wurde in der objektorientierten und plattformunabhängigen Programmiersprache Java implementiert. Der Umfang sowie das Design des Programms ermöglichen eine einfache und weitreichende Verwendung des Programms, sowohl für Auftraggeber als auch für Brückenbauer auf viele Jahre hinaus.

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Puchegger Thomas

Thomas Puchegger

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Das öffentliche Räume in Städten zu gefährlichen und überwachten Hot-Spots werden, liegt häufig an der Lage der Plätze im städtischen Raum, sowie an den umliegenden und angrenzenden Gebieten. Die Planung der Stadt, sowie die räumliche Aufteilung der Gebiete und Plätze, entscheidet ob innerstädtische Räume als sicher oder als gefährlich eingestuft werden. Die einheimische Bevölkerung, als auch Touristen bevölkern öffentliche Plätze und besetzen den öffentlichen Raum in Städten. Durch die unterschiedlichen Ansichten entstehen aber möglicherweise Konflikte bei der Nutzung dieser öffentlichen Räume. Dies hat sich im Laufe der Zeit, zum Beispiel durch die fortschreitende Globalisierung, stark verändert. Die Nutzungsmuster sowie die Aufenthaltsqualität haben sich ebenfalls in den letzten Jahren geändert. Auf diese Umstände und die daraus resultierenden Konflikte wird in dieser Arbeit genauer eingegangen.

Diplomarbeitsposter Ringhofer David

David Ringhofer

Masterstudium Medizinische Informatik
Abstract:

Gesundheitsdaten gehören zu den sensibelsten, persönlichen Daten. Das Niveau an Vertraulichkeit dieser Informationen muss als sehr hoch eingestuft werden. Aufgrund der zunehmenden Vernetzung elektronischer Krankenakten, des Einsatzes medizinischer Informationssysteme und des Aufbaus nationaler und überstaatlicher Gesundheitstelematik ist insbesondere Bedacht auf die Schutzwürdigkeit von Patientendaten zu legen. Ein wichtiger Aspekt bei der Etablierung der genannten Innovationen im Gesundheitswesen ist daher beispielsweise die Abwehr von missbräuchlicher Verwendung, unbefugter Speicherung, nicht autorisiertem Zugriff. Diese Arbeit stellt sich der Herausforderung, Österreichs Weg zu einem nationalen EHR (electronic health record) nachzuzeichnen, den aktuellen Stand zu beleuchten und weitere Planung im Rahmen der österreichischen e-Health Strategie zu reflektieren. Dabei werden ähnliche Entwicklungen und Strategien im Ausland zum Vergleich herangezogen und der Frage, wie sich das Projekt ELGA charakterisieren lässt, nachgegangen. Sie beschäftigt sich mit dem Problem wie die Datensicherheit in elektronischen Gesundheitsakten gewährleistet werden kann und legt ein besonderes Augenmerk auf die Auswirkungen von ELGA auf den Datenschutz. Dabei werden denkbare Legitimationen zur Führung einer elektronischen Gesundheitsakte untersucht. Datenschutzrechtliche Konsequenzen werden analysiert, der bestehende gesetzliche Rahmen betrachtet und ein Fazit unter die Betrachtung gesetzt.

(vor 2018) Institut für Fertigungstechnik und Hochleistungslasertechnik

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Pouria Samimi
Diplomarbeitsposter Tuzcu Bayram

Bayram Tuzcu

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Ziel dieser Arbeit ist es, Qualitätsmanagement im Sinne Electronic Commerce (E-Commerce) zu forschen. Alle Aspekte des Qualitätsmanagement im E-Commerce, im Hinblick auf die Gewährleistung der Kundenzufriedenheit, werden einzeln behandelt. Zuerst werden die grundlegenden Qualitätsbegriffe beschrieben und allgemeine Informationen über E-Commerce gegeben. Danach werden die wichtigsten Erfolgsfaktoren für E-Commerce- Unternehmen untersucht. In der Arbeit werden auch die Dimensionen der E-Servicequalität und Qualität von Webseiten betrachtet. Es wird versucht, einen Ausgangspunkt für Online-Händler zu schaffen, um die Kundenzufriedenheit laufend zu verbessern und Kunden an das Unternehmen anbinden zu können.

(vor 2018) Institut für Mechanik und Mechatronik

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Melanie Fraunschiel, Melanie Fraunschiel, Martin Stubenschrott
Diplomarbeitsposter Stadler Urban

Urban Stadler

Masterstudium Technische Informatik
Abstract:

In Zukunft werden menschenähnliche Roboter eine wichtige Rolle in unserem täglichen Leben spielen. Sie werden in der Lage sein gefährliche oder monotone Aufgaben für den Menschen zu erledigen, oder uns bei alltäglichen Aufgaben zu unterstützen. Seit einigen Jahren wird in diesem Bereich intensiv geforscht und entwickelt. Obwohl bis heute eine beträchtliche Menge an Geld und Zeit in dieses Gebiet investiert worden ist, sind bei weitem noch nicht alle Probleme gelöst und es wird noch einige Jahre dauern, bis voll funktionsfähige menschenähnliche Roboter existieren. Das Institut für Handhabungsgeräte und Robotertechnik beteiligt sich in Forschung und Entwicklung an diesem sehr interessanten Gebiet mit dem Ziel, einen menschenähnlichen Roboter zu bauen der fähig ist, Fußball zu spielen. Auf den ersten Blick betrachtet, scheint das Problem eine etwas spielerische und praxisferne Aufgabe zu sein. Im Detail betrachtet, beinhaltet diese Aufgabenstellung aber viele äußerst komplexe Probleme, die auch für eine Vielzahl von Anwendungen jeglicher Art zu lösen sind. Der Focus dieser Diplomarbeit liegt darin ein einfaches, robustes und leistungsfähiges Bus System zu entwickeln. Dieses Bus System soll in Folge alle wichtigen Sensoren und Aktuatoren mit der Zentralen Recheneinheit verbinden. Die Schwierigkeit lag nun darin verschiedene Anforderungen wie Echtzeitfähigkeit, mehrere Slaves pro Bus und hohe Flexibilität so kostengünstig wie möglich zu implementieren.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Altrichter Christian

Christian Altrichter

Masterstudium Business Informatics
Abstract:

Diese Masterarbeit beschäftigt sich mit der Integration von querschnittgelähmten Personen in den österreichischen Arbeitsmarkt unter besonderer Berücksichtigung der IT-Branche. Behinderte Personen werden in unserer Gesellschaft massiv benachteiligt. Im Zuge der beruflichen Integration werden querschnittgelähmte Personen aufgrund der Behinderung sehr oft schlechter behandelt als Personen ohne Einschränkungen. Meis-tens bekommen sie aufgrund der Behinderung gar nicht die Möglichkeit, in einer Firma zu arbeiten. Und wenn querschnittgelähmte Personen eine geeignete Anstellung finden, werden sie im Zuge des alltäglichen Berufslebens von anderen Personen diskriminiert, was sich sehr negativ auf die Motivation der behinderten Personen auswirkt. Aus diesem Grund ist die berufliche Integration von querschnittgelähmten Personen mit vielen Schwierigkeiten verbunden. In dieser Masterarbeit wird ausführlich beschrieben, wie querschnittgelähmte Personen die berufliche Integration im Bereich der IT-Branche erfolgreich gestalten können. Dabei werden sowohl die Arten der Querschnittlähmung als auch die einzelnen Berufe der IT-Branche näher beschrieben. Mit einer erfolgreichen beruflichen Integration sind bei querschnittgelähmten Personen auch ergonomische Innovationen und unterstützende Projekte verbunden, die ebenfalls näher erläutert werden. Diese Arbeit zeigt auf, wie der Prozess der beruflichen Eingliederung effizient gestaltet werden kann, wodurch viele Integrationsbarrieren reduziert werden können.

Diplomarbeitsposter Angermann Christoph Jakob

Christoph Jakob Angermann

Masterstudium Business Informatics
Abstract:

Die vorliegende Diplomarbeit beschäftigt sich mit dem Thema Beschwerde- bzw. Reklamationsmanagement sowie dem Finden von Verbesserungspotenzialen in diesem Prozess. Am Anfang wird ein Überblick über das Thema Prozessmana-gement gegeben. Danach wird auf die Materie des Beschwerdemanagement eingegangen. Dies beginnt mit einer Begründung, warum Unternehmen diesem Themengebiet besondere Aufmerksamkeit schenken sollten. In weiterer Folge wird die Positionierung des Beschwerdemanagements im Unternehmen erörtert. Der nächste Teil befasst sich mit der theoretischen Gliederung des Beschwerde-managements und den daraus resultierenden Einzelteilen des Prozesses. Hier wird auf den Aufbau der Einzelteile eingegangen. Weiters werden die Überlegungen betrachtet, welche bei einer Umsetzung angestellt werden müssen. Mit diesem Punkt endet gleichzeitig auch der theoretisch Teil der Arbeit. Im zweiten praktischen Teil werden die im Theorieteil vorgestellten Methoden in der Praxis angewandt. Es wird der Reklamationsprozess einer Firma nach Verbesserungspotenzial in Richtung Aufbau und Ablauf untersucht, die gewählte Vorgehensweise vorgestellt und Auszüge aus den Ergebnissen präsentiert.

Diplomarbeitsposter Benmoumen Imane

Imane Benmoumen

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Hauptziel dieser Masterarbeit war es, die Bewertung der Methoden des Erneuerungsprogramms der industriellen Unternehmen in Algerien und ihrer Umgebung durch einen geordneten Komplex von Konzepten und angepasster Strategien darzustellen. Zunächst war es wichtig, die Eckpunkte der Politik, der Leistungen der algerischen Industrie seit der Unabhängigkeit bis zu den Reformen internationaler Integration zu analysieren (Kapitel 1). Um die Dimension dieser Problematik durch die Bedeutung der Unternehmenserneuerung in der Perspektive der Liberalisierung der algerischen Wirtschaft zu vertiefen, wurde zunächst eine Einschätzung der industriellen Wettbewerbsfähigkeit auf internationaler Ebene vorgenommen (Kapitel 2). Ausgehend davon war es notwendig, die Erneuerung der Unternehmen durch ihre theoretischen und empirischen Grundlagen, sowie ihre Ziele und Akteure zu identifizieren (Kapitel 3).Eines der wesentlichen Ziele dieser Arbeit ist es, neben den theoretischen Aspekten des Erneuerungsprogramms auch die hierbei angewendeten Methoden zu analysieren (Kapitel 4). Der letzte Punkt dieser Arbeit besteht aus einer praktischen Studie, deren Wichtigkeit für die Überlegung zu den Praktiken der Erneuerung in der algerischen Industrie maßgebend ist, besonders in der agrar- und ernährungswirtschaftlichen Branche. Er umfasst eine Zusammenfassung von Statistiken und Informationen, welche die Branche und drei Unternehmen (ENCG Oran, AIDA Konditorei, GINI Eis) sowie eine allgemeine Feststellung über die Erarbeitung des Programms betrifft (Kapitel 5).

Diplomarbeitsposter Guggenberger Philipp

Philipp Guggenberger

Masterstudium Business Informatics
Abstract:

In der Finanzwelt wird der Quantifizierung des Marktrisikos von Finanzinstrumenten eine immer größere Rolle zugeteilt. Es existieren eine Reihe von Paradebeispielen, die zeigen, welch eklatante Auswirkungen ein schlechtes Riskomanagement haben kann (s. z.B.: Konkurs Barings Bank 1995 oder auch die Auswirkungen der Verluste der BAWAG). Die Risikoevaluierung ganzer Portfolios ist mit einer großen Anzahl an einzelnen Berechnungen verbunden. Zusätzlich kann beobachtet werden, dass die Finanzprodukte immer komplexer werden und damit auch die Bewertung einen erhöhten Aufwand darstellt. Dies erfordert den Einsatz von dynamischen Softwaresystemen, die eine ständige Erweiterung und Verbesserung der existierenden Riskomodelle erlauben. Das Ziel dieser Arbeit war es, ein flexibles Risikomanagementsystem zu planen und auch teilweise zu implementieren. Die Eigenschaft „flexibel“ bezieht sich im Speziellen auf die Möglichkeit einer einfachen Erweiterbarkeit der vorhandenen Instrumente, aber auch eine offene Implementierung des gesamten Systems wurde angestrebt. Die Arbeit stützte sich hierbei auf zwei relativ neue Softwareentwicklungsansätze, SOA (service oriented architecture) und EDA (event driven architecture). Der erste Teil der Arbeit beschäftigt sich mit der allgemeinen Architektur des Systems und der Identifikation und Orchestrierung der benötigten Prozesse. Der zweite Teil befasst sich allgemein mit dem Riskomanagement von Finanzinstrumenten, wobei der Hauptschwerpunkt auf den in den letzten Jahren sehr populär gewordenen value‐at‐risk Verfahren liegt. Im Speziellen werden die unterschiedlichen Ansätze bei der Evaluierung von nicht linearen Investments (z.B.: Aktienoptionen) beschrieben, die im Anschluss auch im Prototypen implementiert wurden. Der dritte Teil beschreibt den mittels EDA entwickelten Prototypen, diskutiert die Vor‐ und Nachteile des Softwareentwicklungsprozesses und präsentiert die Ergebnisse der unterschiedlichen Riskobewertungsmodelle.

Diplomarbeitsposter Kirchweger Anna Pia-Maria

Anna Pia-Maria Kirchweger

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

CSCW; e-Learning; Microsoft SharePoint; Kollaboration

Diplomarbeitsposter Zerawa Simon-Alexander

Simon-Alexander Zerawa

Masterstudium Informatikmanagement
Abstract:

Mit Jänner 2010 wird eine neue Strichcodesymbologie für die globale Identifikation von Handelswaren freigegeben. Der GS1 DataBar ist kleiner als derzeitige Barcodes und kann mehr Daten auf gleichem Raum darstellen. Die beschriebene Masterarbeit beschäftigt sich mit den Auswirkungen dieser Einführung und geht auf mögliche Einsatzszenarien des neuen Barcodes ein. Die neue Symbolfamilie des GS1 DataBar (ehemals RSS für Reduced Space Symbology) berücksichtigt nicht nur neue Anforderungen sondern ermöglicht auch zahlreiche bis jetzt nur umständlich lösbare Anwendungen. Der etwa um 50% kleinere GS1 DataBar kann in seiner Standardversion die gleichen Daten wie der EAN-13 Strichcode darstellen und eignet sich so vor allem für kleine und lose Produkte, die bisher nicht gekennzeichnet werden konnten. Expanded Versionen des GS1 DataBar sind in der Lage zusätzlich zur global eindeutigen Produktnummer auch Zusatzdaten in standardisierter Form zu übergeben. Dazu werden sogenannte Application Identifier eingesetzt, die als Datenbezeichner dienen. Diese sind vom GS1-128 Symbol bekannt, und werden insbesondere in der Warenlogistik eingesetzt. Im Gegensatz zu diesem Symbol können Versionen des GS1 DataBar jedoch auch lageunabhängig (omnidirektional) gelesen werden und eigenen sich daher besonders für Erfassungsvorgänge am POS im Kassenbereich wo eine zuverlässige und schnelle Identifikation unbedingt erforderlich ist.Der GS1 DataBar folgt durch seine Flexibilität auch dem Trend weg von der reinen Produktunterscheidung hin zur Identifikation von Chargen und sogar einzelnen Artikelidentitäten (Seriennummer). Langfristig wird der GS1 DataBar die Lücke zwischen zukünftigen RFID-Lösungen und kostenkritischen, auflagenstarken Anwendungen schließen. Die konkreten Bedürfnisse des Handels und der Industrie werden die Verbreitung des GS1 DataBar maßgeblich beeinflussen.

(vor 2018) Institut für Computertechnik

Diplomarbeitsposter Biro Sandor

Sandor Biro

Diplomstudium Informatik
Abstract:

Robot4Web ist ein Projekt, erstellt für didaktische und demonstrative Zwecke. Ziel dieser Diplomarbeit ist: einen Roboter herzustellen, der in erster Linie über ein FPGA-Board programmierbar und steuerbar ist. Darüber hinaus besteht die Möglichkeit, den Roboter mit Hilfe einer in FPGA programmierte Anwendung, über eine serielle Schnittstelle direkt anzusteuern. Sämtliche Bewegungen des Roboters, aber auch seine Umgebung werden mit einer Webkamera erfasst, die ebenfalls mit dem FPGA verbunden ist. Durch diese Tatsache wird ermöglicht, dass in weiterer Folge Forschungsarbeiten auf dem Gebiet der künstlichen Intelligenz durchgeführt werden können. Die Anbindung des Roboters an den PC wird über ein FPGA-Programmierkabel und über ein RS-232-Kabel stattfinden. Die gesamte Entwicklungsumgebung für die FPGA-Programmierung, und dadurch für den Roboter, ist mit Hilfe einer Webanwendung realisiert worden. Damit wird die Einsetzbarkeit des Systems im Bereich des E-Learning ebenfalls ermöglicht.

Diplomarbeitsposter Hartl Isabella

Isabella Hartl

Diplomstudium Informatik
Abstract:

Mobile Agenten sind Programme, die zwecks Erfüllung ihres vom Benutzer erteilten Auftrags, innerhalb eines Netzwerkes autonom von Rechner zu Rechner migrieren. Unterstützt werden sie dabei von lokalen Plattformen, ohne deren angebotene Dienste ein mobiler Agent seine Aufgabe nicht erfüllen könnte (z. B. Kommunikations- und Migrationsdienst). Sobald ein mobiler Agent seine Heimatplattform verlässt, bewegt er sich in einer potentiell böswilligen Umgebung. Seine aktuelle Wirtsplattform könnte versuchen ihn zu attackieren, indem sie seine mitgeführten Daten ausspioniert oder gar seinen Programmcode manipuliert. Gleiches gilt für die Wirtsplattform, ein mobiler Agent könnte versuchen unberechtigten Zugang zu ihren Daten oder Ressourcen zu erhalten. Aus diesem Grund ist das Thema „Sicherheit“ sowohl für mobile Agenten als auch ihre Plattformen von besonderer Wichtigkeit. Beide müssen sich gegen Angriffe absichern. Diese Arbeit diskutiert den Begriff „Sicherheit“ und wie er in mobilen Agentensystemen umgesetzt werden kann und beschreibt, wie weit sich vorhandene Agentenstandards (FIPA und OMG) dem Thema Sicherheit und seiner Umsetzung widmen. Nach einer Analyse der möglichen Angriffe auf ein mobiles Agentensystem, werden jeweils zwei mobile Agentensysteme vorgestellt (JADE und SeMoA, Aglets und Grasshopper) und deren Sicherheitsmaßnahmen miteinander verglichen. Anschließend werden Maßnahmen zur Umsetzung der Sicherheitsanforderungen diskutiert und ihre Vor- und Nachteile besprochen. An Hand der konkreten Agentenplattform CARE für RFID wird die Umsetzung einer Kommunikationsabsicherung in einem FIPA-konformem Agentensystem vorgestellt.

Diplomarbeitsposter Kohlhauser Stefan

Stefan Kohlhauser

Diplomstudium Informatik
Abstract:

Agentensystem / Verhaltenstests / Künstliches Leben / Künstliche Intelligenz / Psychoanalyse / Artificial Recognition System / ARS

Diplomarbeitsposter Vielguth Stefan

Stefan Vielguth

Diplomstudium Informatik
Abstract:

Elektrische Energienetze bilden das Rückgrat der Versorgung der Menschen mit elektrischer Energie. Im Zuge des zunehmend wachsenden Bedarfs an elektrischer Energie ist ein stetiger Netzausbau für viele Versorgungsregionen unumgänglich. Ursprünglich waren Energienetze als strikte Top- Down-Strukturen angelegt. Das bedeutet, dass die von den Primär-Einspeisungsknoten (Kraftwerken) hin zu den Endverbrauchern benötigte Struktur, einmalig großzügig hinsichtlich der Beanspruchung durch elektrische Randparameter wie Ströme, Spannungen und Leistungen ausgelegt und keine größeren Veränderungen mehr durchgeführt wurden. Im Zuge der Liberalisierung der Energiemärkte und des zunehmenden Energiebedarfs kommt es heutzutage vor allem im Bereich der Mittelspannungs- und Niederspannungsebene zu zusätzlichen Einspeisungen von elektrischer Energie. Beispiele dafür sind Wind- oder Biomassekraftwerke. Dies verändert allerdings die Situation der Energienetze, da neue Einspeisepunkte im Betrieb die elektrischen Parameter im Bereich der betroffenen Spannungsebene verändern. Deshalb ist es notwendig, noch vor der Planung bzw. Inbetriebnahme neuer Kraftwerke, die Auswirkungen auf das betroffene Netz abschätzen zu können. Zu diesem Zweck wurden Verfahren der Lastflussanalyse entwickelt. In dieser Arbeit wird der Fokus auf die Implementierung eines nachrichtenbasierten Lastflussanalyse-Verfahrens, das auf einem Vorwärts-/ Rückwärtsschritt-Verfahren basiert, gelegt. Für die Implementierung des Verfahrens wird das Open-Source-Framework OMNeT++ [3] herangezogen, welches es ermöglicht, Graphenmodelle aufzubauen und Nachrichten zwischen den Knoten des Graphen auszutauschen. Weiters wird die Integration des Algorithmus in die Architektur der Simulationsplattform DAVIC beleuchtet. DAVIC ist eine Simulationsplattform des Instituts für Computertechnik, die es ermöglichen soll, Geld-, Kommunikations- und Energieflüsse in Energienetzen zu simulieren. Als Ergebnis wurde eine Lösung implementiert, die e...

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Medizinische Universität Wien

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Wolfgang Alexander Koller, Jana Rajtarova, Christian Scheibböck, Dilek Yücel
Diplomarbeitsposter Eis Christian

Christian Eis

Diplomstudium Informatik
Abstract:

Wir beschreiben die Architektur und Implementierung der RASCALLI Plattform, einer Laufzeit- und Entwicklungsumgebung für Softwareagenten. Der zentrale Beitrag dieser Arbeit ist die Anwendung moderner komponentenbasierter Entwicklungsmethoden auf die Implementierung von Agenten, die es erlaubt, solche Agenten aus einer Menge wieder verwendbarer Komponenten zusammenzufügen. Mehrere unterschiedliche Agenten können in einer einzelnen Instanz der Plattform gleichzeitig ausgeführt werden, wodurch die Evaluierung und der Vergleich von einzelnen Komponenten, sowie von kompletten Agentenarchitekturen ermöglicht wird. Schließlich erleichtert die Service-orientierte Architektur der Plattform die Integration von externen Komponenten.

(vor 2010) E183/2 - Bildverarbeitung und Mustererkennung

Diplomarbeitsposter Müller Andreas

Andreas Müller

Diplomstudium Informatik
Abstract:

Die Abstandsanalyse und Oberflächenrekonstruktion mit Hilfe von visuellen Sensoren findet Anwendung in Bereichen wie zum Beispiel dem Reverse Engineering, der Qualitätskontrolle, der Navigation von Robotern, dem Entwurf von Computerspielen, der Werbung, der Bewahrung und Dokumentation des Kulturerbes und der Medizin. Die Anforderungen an die Genauigkeit und die Aulösung der gewünschten dreidimensionalen Daten sind unterschiedlich. Ein Problem mit dem alle, auch handelsübliche, Aufnahmesysteme zu kämpfen haben, sind Löcher in den dreidimensionalen Daten auf Grund von Verdeckungen. Die Löcher werden üblicherweise durch Daten aus zusätzlichen Aufnahmen aus anderen Positionen gefüllt. Das in dieser Arbeit vorgestellte System namens PRIP3V verwendet zur Aufnahme zwei Kameras und einen Projektor. Eine Sequenz von kodierten Lichtstreifen wird in die Szene projiziert, welche wiederum von beiden Kameras aufgenommen wird. Durch die Lichtstreifen werden künstlich Punkte in der Szene markiert. Die Markierungen werden dazu verwendet, in beiden Kameras eindeutig korrespondierende Punkte zu finden. Dieser Aufbau erlaubt die dreidimensionale Rekonstruktion von drei Ansichten in einem Aufnahmevorgang. Die Daten der drei Ansichten werden automatisch registriert. Eine Ansicht ergibt sich durch die Stereobildanalyse aus beiden Kameras und zwei Ansichten aus der Rekonstruktion durch strukturierte Beleuchtung zwischen dem Projektor und jeweils einer Kamera. Löcher in den Daten der Stereobildanalyse können durch Punkte aus der Rekonstruktion durch strukturierte Beleuchtung gefüllt werden, wenn diese in nur einer Kamera sichtbar sind. Die Regionen, die zusätzliche Daten durch die Rekonstruktion durch strukturierte Beleuchtung liefern, werden Halbverdeckungen genannt, da sie nur für die Hälfte der vorhandenen Kameras sichtbar sind.

(alt) E388 - Institut für Breitbandkommunikation