EPILOG Sommersemester 2009

Auszeichnungen

Ausgestellte Arbeiten

Institut für (vor 2018) Technische InformatikE182

Arbeitsbereich (vor 2018) Cyber-Physical Systems

Diplomarbeitsposter Huber Benedikt

Benedikt Huber

Masterstudium Computational Intelligence
Abstract:

Die Korrektheit eines Echtzeitsystems ist nicht nur von der Programmlogik, sondern auch von zeitlichen Faktoren abhänging. So muss beispielsweise ein periodisch aufgerufener Programmteil rechtzeitig ausgeführt und auf Ereignisse innerhalb einer festgelegten Frist reagiert werden. Um die Einhaltung dieser Anforderungen zu garantieren, ist es notwendig, eine sichere obere Schranke der maximalen Laufzeit zu berechnen. Diese Diplomarbeit behandelt die Laufzeitanalyse der sequentiellen Programmteile sicherheitskritischer Java Echtzeitanwendungen. In diesem Rahmen wurde eine Applikation zur Laufzeitanalyse für den Java Prozessor JOP entwickelt und zwei unterschiedliche Techniken zur Berechnung der maximalen Laufzeit implementiert. Zum einen die häufig angewandte "Implicit Path Enumeration Technique" (IPET), welche die Laufzeitberechnung in ein Netzwerkfluss-Problem überführt. Der zweite Ansatz modelliert das zu analysierende Programm als Timed-Automata Netzwerk, eine Erweiterung endlicher Automaten für zeitabhängige Systeme. Zur Berechnung der Laufzeit wird der Model Checker UPPAAL verwendet, um im Zustandsraum nach dem Ausführungspfad mit der maximalen Laufzeit zu suchen. Da beide Techniken in dem Analysewerkzeug integriert wurden, konnten sie direkt miteinander verglichen werden. In den durchgeführten Experimenten stellte sich der Timed Automata Ansatz als für kleinere Programme geeignet heraus, wobei allerdings eine hohe Zahl an Schleifeniterationen die Analysezeit signifikant verlängerte. Die IPET Methode wiederum skalierte sehr gut, lieferte aber im Gegenzug etwas schlechtere Laufzeitabschätzungen aufgrund der konservativeren Cache Approximation. Für die Berechnung via Model Checking scheinen zum einen noch zahlreiche Optimierungen möglich, zum anderen stehen weitere Anwendungsgebiete offen, wie etwa modellbasierte Scheduling Analyse, sodass es lohnenswert erscheint, diesen Ansatz auch in Zukunft weiterzuverfolgen.

Diplomarbeitsposter Kößler Alexander

Alexander Kößler

Masterstudium Technische Informatik
Abstract:

Heutzutage sind eingebettete Computersysteme allgegenwärtig. Aus diesem Grund steht das Programmieren von Mikrocontrollern und das Entwickeln von eingebetteten Computersystemen im Studienplan der Informatikstudien vieler Universitäten weltweit. Auch an der Technischen Universität Wien bietet das Institut für Technische Informatik mit Embedded Systems Engineering (ESE) eine Lehrveranstaltung (LVA) mit hohem Praxisanteil, in der Studenten fortgeschrittene Fähigkeiten im Programmieren von Mikrocontrollern erlangen sollen. Die erste Generation der dafür entwickelten Übungshardware stellte die Übungsleiter aber bald vor ein großes Problem hinsichtlich Wartung und Aktualisierung. Die verwendeten Mikrocontroller veralteten und die mechanische Stabilität des Laboraufbaus war nicht mehr gegeben. Das sind nur zwei der Gründe, warum nach einer Weiterentwicklung der Übungshardware verlangt wurde. Diese Arbeit umfasst Entwurf und Entwicklung einer neuen universellen Plattform für die Lehrveranstaltung ESE. Nach eine Darstellung verschiedener Abhaltemethoden einer praktischen LVA über eingebettete Computersysteme werden diese bezüglich ihrer Nutzbarkeit in ESE diskutiert. Der Entwurfsprozess der neuen Hardware wird dokumentiert und ihre Besonderheiten, wie zum Beispiel die Unterstützung in praktischen Prüfungen oder die Möglichkeit für Fernarbeit, werden vorgestellt. Zum Schluss werden die Ergebnisse des praktischen Einsatzes der letzten drei Jahre mit ESE Studenten vorgestellt, eine Fallstudie, die mit freiwilligen Studenten in Pristina gemacht wurde, evaluiert und eine Zusammenfassung über Forschungsthemen, die von der Plattform unterstützt wurden, gegeben.

Diplomarbeitsposter Stoif Christian

Christian Stoif

Masterstudium Computational Intelligence
Abstract:

Mehrere parallele Prozessorkerne sind auch bei den eingebetteten Systemen im Anmarsch - die Pläne von führenden Halbleiterherstellern bezeugen dies: es ist nicht die Frage ob sie kommen sondern vielmehr wie die Architekturen der Mikrocontroller unter Berücksichtigung der strengen Anforderungen im Automobilsektor aussehen sollen. In dieser Diplomarbeit wird der Schritt von einem zu mehreren Prozessorkernen unternommen, unter Verwendung von Mechanismen in Software und Hardware wird Kohärenz und Konsistenz von unterschiedlichen Typen von geteiltem Speicher hergestellt. Auch Unterstützung für Punkt-zu-Punkt Synchronisation zwischen den Prozessorkernen wird durch verschiedene implementierte Methoden realisiert. Obwohl der theoretische Ansatz mithilfe von Simulationen unabhängig von der Anzahl der Prozessorkerne ist konzentrieren sich die praktischen Untersuchungen auf den logischen ersten Schritt von einem Ein- zu einem Zweikernsystem, unter Verwendung einer FPGA-Entwicklungsplatine mit zwei PowerPCProzessorkernen. Resultate des besten und schlechtesten Falles zeigen, zusammen mit intensiven Vergleichstests aller implementierten Synchronisationsprimitiven, die erwartete Überlegenheit der Hardwarelösungen. Es wird auch gezeigt wie ein Speicher mit zwei Ports einem Speicher mit nur einem Eingang überlegen ist, falls die mehreren Prozessorkerne inhärente Parallelität unter Verwendung einer in dieser Diplomarbeit vorgestellten Methode zur Speicherreservierung intelligenter nutzen. Allein eine simple globale Reservierung des gesamten geteilten Speichers verhindert eine parallele Nutzung grundsätzlich. Im schlimmsten Fall degeneriert die Performanz eines Speichers mit mehreren Ports zu der eines Speichers mit nur einem Eingang, doch die Bedingungen die zu diesem schlimmstmöglichen Fall führen scheinen für Anwendungen in der Praxis nicht realistisch zu sein.

Diplomarbeitsposter Wendelin Karin

Karin Wendelin

Wirtschaftsinformatik
Abstract:

Dem Institut für Chemische Technologien und Analytik (CTA), Fakultät für Technische Chemie der TU Wien wurde im Rahmen der UniInfrastruktur III Maßnahme ein neues Großgerät – ein Time-Of-Flight Sekundärionen-Massenspektrometer (TOF-SIMS) – um 800.000 Euro bewilligt. Mit Hilfe der TOF-SIMS können wichtige Fragestellungen aus dem Bereich der Halbleitertechnik bearbeitet werden. Dieses Gerät der neuesten Generation ist äußerst leistungsfähig, allerdings ist die mitgelieferte Software – speziell im Bereich der Auswertung mehrdimensionaler Daten – bei Weitem nicht auf demselben Entwicklungsstand wie die Hardware. Aufgrund der vorhandenen Expertise des Institutes im Bereich der Visualisierung analytischer Daten wird im Rahmen einer Absprache mit der Herstellerfirma ION-TOF eines Softwarepaket zur Auswertung und Visualisierung der gewonnenen Messdaten erarbeitet. Im Rahmen dieses Projekts befasst sich diese Arbeit mit dem Thema der Konzeptionierung und Gestaltung der Graphischen Benutzeroberfläche. Auf Basis von Softwareentwicklungstheorie werden in einzelnen Schritten über Problemstellung bis zu ausgewählten Benutzeranwenderfällen die praktische Umsetzung des Designprozesses beschrieben. Anschließend werden Entwürfe des GUI-Designs angeführt, wobei auf die jeweiligen Vor- und Nachteile und entsprechende Entscheidungen angeführt werden. Zum Abschluss werden bereits realisierte Oberflächen dargestellt

Diplomarbeitsposter Wohlmuth Jürgen

Jürgen Wohlmuth

Masterstudium Software Engineering & Internet Computing
Abstract:

Verteilte, fehlertolerante Echtzeitsysteme erringen immer größere Bedeutung in den sicherheitskritischen Systemen der Bereiche Luftfahrt, Automobilindustrie und Industriekontrolle. Zeitgesteuerte Protokolle erlauben zudem eine durch ihr Design deterministische Applikation. Dies erleichtert wiederum — unter anderem — Test, Integration und letztenendes Zertifizierung von sicherheitskritischen Systemen. Da allerdings Größe, Komplexität und der erforderliche Grad an Zuverlässigkeit steigt, soll nun die Architektur entsprechende Mechanismen implementieren um die erforderlichen Services auf Systemebene bereitzustellen. Ein Ansatz ist die Datenübertragung auf mehreren redundanten Netzwerken welche ihrerseits durch sogenannte Gateway-Knoten miteinander verbunden sind. Dieses Konzept wird bereits im Feldeinsatz umgesetzt. Als Konsequenz dieses Designs und um sichere und konsistente Bereitstellung der übertragenen Daten zu gewährleisten, müssen nun die Arbeitszyklen der Netzwerke aufeinander ausgerichtet werden, mit anderen Worten: ihr zyklisches Verhalten muss etwa zur gleichen Zeit starten. Diese Arbeit schlägt einen fehlertoleranten Weg vor um die geplanten Operationen zweier TTP/C-Netzwerke aufeinander auszurichten. Zwei Netzwerke sind durch eine Anzahl Gateway-Knoten verbunden. Die konkrete Implementierung des TTP/C-Protokolls (basierend auf der Time-Triggered Architecture) der TTTech Computertechnik AG stellt bereits zahlreiche Konzepte und Mechanismen bereit, welche wir zur Ausrichtung der Netze verwenden werden. Im Laufe dieser Arbeit werden wir die Konzepte der Uhrensynchronisation untersuchen und ihre Schranken innerhalb von TTP/C ableiten, da diese direkten Einfluss auf Schranken des vorgeschlagenen Algorithmus haben. Wir werden die Charakteristika der Lösung bezüglich Leistungsparameter wie Konvergenzgeschwindigkeit, verfügbare Qualität der Ausrichtung sowie der Ordnungsrelation untersuchen. Weiters werden wir auch die Erfüllung von Fehlertoleranz unter bestimm

Arbeitsbereich (vor 2018) Embedded Computing Systems

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Jakob Lechner
Diplomarbeitsposter Widtmann Christian

Christian Widtmann

Masterstudium Technische Informatik
Abstract:

Der Drang zu kürzeren Produktlebenszyklen und -einführungszeiten sowie die ständig steigende Komplexität von Embedded Systems erfordern einen Anstieg der Produktivität, dem traditionelle Designmethoden immer weniger gewachsen sind. Zur Bewältigung dieses Problems verwendet Electronic System Level Design (ESL) Modellierung und Abstraktion. Der auf der Modellierungssprache SystemC basierende Transaction Level Modeling (TLM) Standard zielt auf die Erstellung virtueller Prototypen, die bereits früh parallele Entwicklung von Hard- und Software sowie Analysen von Architektur und Leistung ermöglichen. Diese Arbeit präsentiert die Methodologie von auf TLM basierendem ESL Design. Sie beschreibt die Fähigkeiten von SystemC, die Konzepte des darauf aufbauenden Standards sowie die Werkzeuge, die dem Entwickler zur Verfügung stehen. Im Zuge einer Fallstudie wird der Advanced Encryption Standard (AES) von einer mathematischen Beschreibung zu einem Architekturmodell weiterentwickelt. Der Designflow besteht aus einer Reihe von Modellierungsschritten, die die Möglichkeiten der verschiedenen Modellierungsstile aufzeigen sollen. Ein Schwerpunkt dabei liegt auf der Verknüpfung theoretischer Konzepte mit ihrer praktischen Implementierung. Basierend auf den Ergebnissen der Fallstudie werden jene Eigenschaften der jeweiligen Modellierungsstile herausgearbeitet, auf denen die Eignung für ihre Anwendungsfälle beruht. Abschliessend erfolgt eine Analyse der Simulationsleistung der beschriebenen Modelle.

Institut für (vor 2018) Rechnergestützte AutomationE183

Arbeitsbereich (vor 2018) Automatisierungssysteme

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Antonio Batovanja, Haitem Elhetki, Christoph Kainz, Alexander Roman Schlaffer, Gerd Wielander, Martin Winkelbauer
Diplomarbeitsposter Badic Manuela

Manuela Badic

Masterstudium Business Informatics
Abstract:

Heutzutage besteht bereits ein Bewusstsein für IT-Projektmanagement und seine Notwendigkeit. Es geht darum, IT-Projekt in der geplanten Zeit und zu den geplanten Kosten und mit der größtmöglichen Effizienz abzuwickeln. Es wurde erkannt, dass bei den Unternehmen, die Anforderung ein abgestimmtes Projektmanagementsystem einzusetzen von großer Relevanz ist. Jedoch werden die Projektmanagementansätze unterschiedlich detailliert gelebt. Daraus ergibt sich, dass es keine „All-in-One“ Lösung gibt. Hinzu kommt, dass auch andere Gesichtspunkte zu berücksichtigen sind, wie zum Beispiel die Projektgröße und die Projektorientiertheit des Unternehmens. In dieser Arbeit liegt der Schwerpunkt in der Konzepterstellung, um dem IT-Projektleiter eine Entscheidungsgrundlage zu geben, welches IT-Projektmanagementsystem optimal seine spezifischen Anforderungen unterstützt. Ausgehend von der Literaturrecherche, wird ein Konzept präsentiert, dass flexibel die Anforderungen des IT-Projektleiters berücksichtigt. In Abhängigkeit zu den spezifischen Anforderungen fallen die Resultate unterschiedlich aus. Es resultiert eine Projektmanagement-Software-Kategorie, die eine Marktanalyse auf wenige Produkte wesentlich einschränkt. Als Untersuchungsobjekte für die Veranschaulichung des Konzeptes und für die empirische Analyse werden drei Produkte von jeder Projektmanagement-Software-Kategorie, herangezogen. Es wird von den allgemeinen Anforderungen bzw. Projektmanagementmethoden aus der Literatur ausgegangen. Es lassen sich Interpretationen bzw. Rückschlüsse auf die Projektorientiertheit eines Unternehmens führen. Ergänzend wurden Leitfadeninterviews mit drei IT-Projektleitern von drei verschiedenen Banken durchgeführt. Es wurden Inhalte aus dem IT-Projektmanagement beleuchtet. Abschließend wurden Optimierungspotenziale aufgezeigt und ein Leitfaden wird präsentiert, wie das neue Projektmanagementsytem eingeführt werden könnte.

Diplomarbeitsposter Eggbauer Christian

Christian Eggbauer

Masterstudium Business Informatics
Abstract:

Die vorliegende Arbeit beschäftigt sich mit der Erstellung einer Software Fehlerklassifikation auf Grund einer empirischen, qualitativen Studie. Dieser Fehlerkatalog soll Software Tester Teams am Point of Observation (PoO.) einer Webseite dabei unterstützen, Fehler so effizient und effektiv wie möglich zu dokumentieren. Die Klassifizierung wird wie folgt in drei Bereiche unterteilt: Fehlerbeschreibung textuell, Tracking der Fehler per Screenshot und Aufnahme der Fehler per Video. Die Methodik des Black Box Testens über ein Interface steht dabei im Vordergrund. In dieser Arbeit werden primär Usability Fehler und Functionality Fehler berücksichtigt. Diese Arten von Fehlern werden gruppiert und zu Oberbegriffen zusammengefasst. Diese Oberbegriffe werden vordefinierten Kategorien zugewiesen und dienen somit als Grundlage für die Inhaltsgestaltung des Fehlerkatalogs. Der Verfasser der Arbeit hat für diese Studie ein Webseiten Tool entwickelt, das auf die Anforderungen einer qualitativen Erhebung zugeschnitten wurde. Es bot 30 ausgewählten Experten der Softwaresicherung die Möglichkeit, jeweils 5 Fehler in die 3 vordefinierten Kategorien einzutragen. Durch diese qualitative Online-Expertenbefragung wurden konkrete Abläufe sowie Vorgänge, Aktionen und Reaktionen des Benutzers bzw. des Systems festgehalten. Die Probanden konnten durch diese Art der Erhebung ihre Erfahrungen uneingeschränkt wiedergeben, da keine fixen Antwortmöglichkeiten vom Autor vorgegeben wurden. Dabei wurde die Hälfte der zuvor aufgestellten Hypothesen durch die Resultate dieser Arbeit verifiziert. Zusammenfassend kann festgehalten werden, dass die Analyse des Datenmaterials die vom Autor ursprünglich angenommene Verteilung bestätigt. 60% aller Fehler wurden der Gruppe „Layout“ und „dynamisches Verhalten“ zugewiesen. „Layoutfehler“ fallen in die Kategorie Usability. „Dynamisches Verhalten“ hingegen beinhaltet meist Fehler aus dem Bereich Functionality. Der daraus resultierende Fehlerkatalog baut auf d

Diplomarbeitsposter Freudensprung Anton

Anton Freudensprung

Masterstudium Business Informatics
Abstract:

Heutzutage hat die Vernetzung im Gesundheitswesen einen hohen Komplexitätsgrad erreicht, woraus besondere Anforderungen an die Qualität des Medical Reporting resultieren. Die Infrastruktur einer Care Delivery Organisation (CDO), also einer Gesundheitsversorgungseinrichtung, die der Informationsverarbeitung dient, besteht aus verschiedenen Informationssystemen, in die die Workflows im Medical Reporting eingebettet sind. In der vorliegenden Arbeit wird analysiert, welche konkreten Abläufe innerhalb von CDOs relevant sind, um eine effiziente medizinische Dokumentation mittels elektronischer Verarbeitung zu erzielen. Ein weiterer Schwerpunkt der Arbeit liegt auf Untersuchungen zur Integrierbarkeit von Spracherkennung. Heutzutage stehen unterschiedliche technische Verfahren zur Spracherkennung zur Verfügung, deren Eignung für das Medical Reporting in der vorliegenden Arbeit beleuchtet wird. Dabei werden unterschiedliche Fallstudien herangezogen, die die Möglichkeiten der Verwendung von Spracherkennung als Instrument der Informationserfassung aufzeigen. Zusammenfassend wird der Gesamtprozess von CDOs deutlich verbessert, wobei so-wohl Qualität als auch Quantität der erstellten Reports erhöht werden.

Diplomarbeitsposter Grossfeld-Marek Anna

Anna Grossfeld-Marek

Masterstudium Informatikmanagement
Abstract:

Die Arbeit beschreibt den nationalen und internationalen Zahlungsverkehr und die Perspektiven für seine Entwicklung in Europa in den nächsten Jahren. Ziel der Arbeit ist die Veranschaulichung, wie die modernen Zahlungsoptionen auf das geschäftliche Leben Einfluss haben. Der Zahlungsverkehr erlaubt den Beteiligten das Geldmittel im In- und Ausland mittels Barzahlung oder bargeldlos zu übertragen. Dabei wird der Schwerpunkt der Arbeit auf den Single Euro Payment Area (SEPA) Standard gelegt. Die Arbeit listet die Vor- und Nachteile des SEPA auf und beschreibt anhand nationalen und internationalen Überweisungen und Lastschriften, wie der Zahlungsverkehr vereinheitlicht wird und wie eine von den EU-Grundfreiheiten - die Zahlungsverkehrfreiheit - in der näheren Zukunft verwirklicht wird. Die Standardisierung und Vereinheitlichung des Zahlungsverkehrs kann die Prozesse und Strukturen in jedem Unternehmen vereinfachen und beschleunigen. Neben dem Zahlungsverkehr wird auch das breite Thema von Business-to-Business (B2B) dargestellt. Aus diesem Bereich werden die Informationsflusse, welche die Unternehmensprozesse unterstützen und verbessern, anhand Electronic Data Intercharge (EDI) und die Anwendungssysteme wie Enterprise Resource Planning (ERP) und Customer Relationship Management (CRM) präsentiert. Die Umsetzung des SEPA-Zahlungsverkehrs wird am Beispiel einer fiktiven, österreichischen Firma mit einem Tochterunternehmen in Deutschland und vielen Geschäftspartner in europäischen Ländern dargestellt. Der Zahlungsverkehr vor und nach dem SEPA wird neben den Business-to-Business-Beziehungen mit Vorlieferanten und Kunden beschrieben und die Vor- und Nachteile für jede Gruppe der Beteiligten werden aufgezählt. Dieses Beispiel veranschaulicht, wie der SEPA das Geschäftsleben konkret erleichten kann und welche Vorteile er für die Geschäftspartner verursacht.

Diplomarbeitsposter Horn Bernhard

Bernhard Horn

Masterstudium Software Engineering & Internet Computing
Abstract:

Bereits in allen Bundesministerien wird die operative Arbeit in durchgehend elektronisch geführten Aktenbearbeitungssystemen erledigt, wodurch erhebliche Effizienzsteigerungen und Kosteneinsparungen erreicht werden konnten. Auch die Bundesländer arbeiten intensiv an der Umstellung vom herkömmlichen Papierakt auf den ausschließlich elektronisch geführten Akt (ELAK = Elektronischer Akt). Nun zeichnet sich ab, dass auch immer mehr Gemeinden an der Einführung des ELAKs interessiert sind bzw bereits konkrete Projekte in diese Richtung anstreben. Auf Grund der bundesstaatlichen Organisation Österreichs kommt eine Vielzahl von Normen zur Anwendung, wobei diese sowohl in Bundes- als auch Landesgesetzen sowie bestimmten Verordnungen und Erlässen vorzufinden sind. Dadurch stellt sich in der Praxis bei der Umsetzung solcher Projekte für IT-Experten das Problem, alle relevanten Vorschriften zu identifizieren, richtig zu verstehen und technisch korrekt umzusetzen bzw abzubilden. Ziel dieser Arbeit ist die Sammlung und Aufbereitung aller relevanten Rechtsvorschriften, welche im Zuge der Realisierung einer ELAK-unterstützten Verwaltungsumgebung für eine Behörde einschlägig werden. Es sollen sämtliche relevanten Gesetze und Verordnungen erläutert und ein Grundverständnis der rechtlichen Anforderungen zur Umsetzung in technische Lösungen gegeben werden. Da sich diese Vorschriften sehr verstreut in den Rechtsnormen wieder finden bzw gänzlich nur aus der gesamten Rechtsordnung abgeleitet werden können, werden diese Anforderungen übersichtlich und komprimiert in einem Kriterienkatalog zusammengefasst. Damit wird gewährleistet, dass jedenfalls die rechtlichen Problembereiche als solche erkannt werden und gegebenenfalls Fachexperten konsultiert werden können. Durch diese Arbeit soll erreicht werden, sämtlichen auch kleineren Gemeinden, für welche es finanziell nicht tragbar wäre, durchgehend rechtlichen Expertenbeistand zu stellen, eine Arbeitsgrundlage zur Erfüllung der rechtlichen A

Diplomarbeitsposter Höglinger Christoph

Christoph Höglinger

Masterstudium Business Informatics
Abstract:

Eine Vielzahl von Unternehmen bieten einfache Onlineshop-Lösungen an, jedoch bleiben integrierte Softwarelösungen meist nur größeren Unternehmen vorbehalten. Im Rahmen dieser Arbeit werden Online Frameworks für kleine Handelsunternehmen konzipiert und prototypisch implementiert. Ziel dabei ist es, ein umfassend integriertes Softwaresystem zu schaffen und trotzdem beschränkte budgetäre Rahmenbedingungen kleiner Handelsunternehmen zu berücksichtigen. Diese Problematik soll mit Hilfe von bestehenden und bewährten Open Source Onlineshop-Systemen gelöst werden, die bereits eine Vielzahl von Erweiterungen sowie Schnittstellen zu weiteren Softwareprodukten und Onlinediensten anbieten. Um eine Systemauswahl für das Onlineshop-System, das Herzstück des Frameworks, treffen zu können, ist das Erheben der Anforderungen an ein solches Framework notwendig. Diese sind im Zuge dieser Diplomarbeit mittels einer Onlinebefragung von Shop-Betreibern eruiert worden. Durch diese Vorgehensweise ist eine objektive Systemauswahl erst möglich. Neben einer Ist-Zustand-Erhebung werden aus den Ergebnissen der Onlinebefragung KO-Kriterien abgeleitet, um eine Vorselektion der identifizierten Open Source Onlineshop-Systeme zu ermöglichen. Ebenso basiert die Gewichtung des Scoring-Modells auf den Umfrageergebnissen. Die Konzeption und Implementierung des Frameworks erfolgt mit dem im Zuge der Analyse ausgewählten System Zen-Cart. Die Implementierung umfasst drei Erweiterungsszenarien, die verschiedene Charakteristika von kleinen Handelsunternehmen abdecken. Im Zuge der Implementierung wurden insgesamt 22 Erweiterungen installiert, angepasst und getestet. Im Bereich der Anbindung an Softwaresysteme innerhalb des Unternehmens ist besonders die Schnittstelle zum Warenwirtschaftssystem JTL-WAWI hervorzuheben, da keine redundanten Datenwartungen mehr notwendig sind. Ebenso wurden Erweiterungen implementiert, die Schnittstellen zu weiteren Onlinevertriebskanälen, wie etwa Amazon, anbieten. Im Bereich d

Diplomarbeitsposter Müller-Wernhart Michael

Michael Müller-Wernhart

Masterstudium Informatikmanagement
Abstract:

Gibt es einen kausalen Zusammenhang zwischen mangelhaften IT-Strategien und ineffektivem IT-Management und dem in der jüngeren Vergangenheit verstärkt aufkommenden Burnout-Syndrom bei IT-Mitarbeitern? Dieser Frage widmet sich diese Arbeit unter Einbeziehung verfügbarer Erkenntnisse und eigenen Erfahrungen des Autors, der seit vielen Jahren als IT-Manager in Unternehmen tätig war und ist. Im ersten Kapitel werden Überlegungen zu einer erfolgreichen Strategieentwicklung in Bezug auf IT behandelt. Dabei stehen nicht die Inhalte der Strategie allein im Mittelpunkt, sondern auch die Rolle der IT in Unternehmen und ihr konkreter Wertbeitrag. Eine erarbeitete Strategie ist jedoch kein alleiniger Erfolgsgarant. Fehler in der Umsetzung relativieren die erwarteten Ergebnisse. Im zweiten Kapitel werden daher, gestützt auf zahlreiche Erfahrungen, mögliche Fehlentwicklungen und negative Rahmenbedingungen von IT-Strategien aufgezeigt, die in Unternehmen ein schlechtes Image der IT bewirken und sich auf Mitarbeiter negativ auswirken. Das Burnout-Syndrom ist keine psychische Erkrankung eines Menschen, sondern eine Reaktion auf bestimmte Lebensumstände. Das dritte Kapitel befasst sich mit Ursachen, Symptomen und Phänomenen, die typisch für den Burnout sind. Es werden auch jene Persönlichkeitsmerkmale, wie beispielsweise emotionale Labilität, Verkopfung und Verlust des Kohärenzsinns, aufgezeigt, die dafür Wegbereiter darstellen können. Das vierte Kapitel fokussiert sich auf belastende Stressfaktoren in IT-Abteilungen. Dazu zählen unter anderem Ziel- und Hierarchiekonflikte, fehlende Fachkompetenz bei Entscheidern und die Missachtung menschlicher Bedürfnisse. Zwei aktuelle Studien haben erstmals die IT-Branche hinsichtlich dieses Thema untersucht. Während die erste Studie aus Deutschland im Jahr 2006 die Situation in IT-Projekten behandelt hat, geht die zweite aus Österreich unter anderem auf Beschäftigte in der IT im Allgemeinen ein. Die Ergebnisse zeigen, dass in der IT ein nicht

Diplomarbeitsposter Nagl Christian

Christian Nagl

Masterstudium Informatikmanagement
Abstract:

Grenzfall PC Flugsimulatoren - Nur ein Spiel oder ernst zunehmende Werkzeuge fürs professionelle Pilotentraining ? Diese Arbeit beschäftigt sich mit der viel diskutierten und heftig umstrittenen Frage, ob es möglich ist, dass eine aus der PC-Spiele-Industrie stammende Software als Basis für Pilotentraining dienen könnte. Welche didaktischen Ansätze sind zu finden und sinnvoll zu verwerten, welche Aspekte haben überhaupt keinen lerntechnischen Sinn. In wie weit vermag Software, die als Computerspiel deklariert ist, Piloten in ihrer Aus- Fort und Weiterbildung helfen? Die Ansichten der unterschiedlichen Parteien - in jeder gibt es sowohl fertig ausgebildete Piloten als auch Laien ohne Ausbildung - sind sehr polarisierend. Als Fallbeispiel soll der fast schon legendäre Microsoft Flight Simulator dienen, der von einer sehr großen Community umworben wird und durch zahlreiche Software-Add-Ons im Funktionsumfang erweitert werden kann. Keinem anderen Produkt aus der Spiele-Industrie wurden so viele Webseiten, 3rd-Party-Unternehmen und Web-Communities gewidmet. Es ist eines der wenigen Produkte, welches Unternehmens-Gründungen für Hardware-Addons und Software-Addons induziert hat. In den USA wurden bereits erste professionelle Flugsimulatoren, die auf Basis vom Microsoft Flight Simulator laufen, von der FAA (Federal Aviation Administration) als "seriöses" Trainingsgerät zertifiziert.

Diplomarbeitsposter Rulitz Herbert

Herbert Rulitz

Individuelles Diplomstudium - Multimediale Systeme
Abstract:

Die technischen Herausforderungen des Internet und die vernetzte Kommunikation stellen das Management und die Organisationsstrukturen von überregional agierenden Unternehmen oder Organisationen vor immer neue Herausforderungen. Vor allem im Bereich der IT ist eine ständige Entwicklung und Anpassung an die Organisationsrealität und an die Unternehmensstrategie notwendig. Dabei werden die Abhängigkeiten der IT-Strategie und IT-Infrastruktur von der innerorganisatorischen Kommunikationsstruktur und Organisationshierarchie deutlich. Sowohl im Infrastrukturbereich als auch im Aufbau und Betrieb der Services muss dem Rechnung getragen werden. Im Rahmen dieser Arbeit wird die IT-Infrastrukturstrategie einer überregional und dezentral agierenden Nonprofit Organisation (NPO) im politischen Umfeld untersucht. Wobei die Auswirkungen der Besonderheiten von Multi-Stakeholder-NPOs, sowohl auf die allgemeine Organisationskultur in der elektronischen Kommunikation, als auch auf die IT-Infrastruktur im Speziellen berücksichtigt werden.In diesem Umfeld bietet die betriebsführende IT-Abteilung mit ihrer starken Ausrichtung auf eine stabile IT-Infrastruktur eine effiziente Basis für die aktuellen Bedürfnisse der Organisation. Darauf aufbauend kann in der strategischen Ausrichtung sehr dynamisch, und mit einem starken Fokus auf Innovationen und Verbesserungen der Services, agiert werden. Dies ermöglicht eine gute Bewältigung der wechselnden Anforderungen im politischen Umfeld, als auch der hohen Anforderungen an die IT bezüglich der Kommunikations- und Organisationsunterstützung gerecht zu werden. Abschließend werden in der Conclusio mögliche technische und organisatorische Entwicklungsszenarien und Verbesserungsmöglichkeiten aufgezeigt, aufgrund derer technische Innovationen und zusätzliche Services integriert werden können.

Diplomarbeitsposter Walder Gerold

Gerold Walder

Wirtschaftsinformatik
Abstract:

Das IT Service Management braucht, um effizient arbeiten zu können, geeignete Werkzeuge, Instrumente, Methoden und Modelle. In diesem Zusammenhang spielt die Information Technology Infrastructure Library (ITIL) eine elementare Rolle. Neben den zahlreich am Markt befindlichen proprietären Softwareprodukten, die bereits an ITIL ausgerichtet sind, nimmt der Anteil an Open Source Lösungen im IT Service Management kontinuierlich zu. Diese Arbeit legt den Fokus auf das Incident Management und verfolgt das Ziel, Softwareprodukte, anhand der von ITIL geforderten Kriterien, zu evaluieren. Für die Erstellung des Kriterienkatalogs ist es notwendig, die Teilprozesse im Incident Management zu konkretisieren. Als Modellierungsmethode bietet sich ARIS (Architektur integrierter Informationssysteme) an, weil ARIS eine differenzierte Sichtweise auf den untersuchten Prozess und die Teilprozesse ermöglicht. Es werden funktionale Anforderungen, dazu zählen Anforderungen die die Datenstruktur, die benötigten Schnittstellen, die Ablaufsteuerung und die Automatisierung, betreffen und nichtfunktionale Anforderungen unterschieden. Die identifizierten Kriterien werden entsprechend gewichtet und bewertet und bilden die Grundlage für den Vergleich der Softwareprodukte. Es stellte sich heraus, dass die meisten der untersuchten Produkte bereits viele der von ITIL geforderten Kriterien erfüllen. Defizite gibt es noch in der Schnittstellenunterstützung zum Problem-, Configuration- und Service Level Management und bei den dafür notwendigen Prozessabläufen. Die Erstellung von Berichten und Statistiken und die Festlegung der Zugriffsberechtigungen erfüllen nicht die geforderten Anforderungen und müssen daher noch verbessert werden. Dennoch konnte festgestellt werden, dass es eine Open Source Software Lösung, nämlich OTRS::ITSM gibt, die den ITIL Richtlinien weitestgehend entspricht, auch wenn eine kontinuierliche Überprüfung und Neubewertung der Unternehmensprozesse und Abläufe notwendig ist.

Diplomarbeitsposter Yang Ji

Ji Yang

Masterstudium Informatikmanagement
Abstract:

China ist das bevölkerungsreichste Land der Welt. Was China tut und vorhat, hat schon alleine deswegen Einfluss auf das Weltgeschehen. Die Wirtschaft Chinas ist auf der Überholspur, offensichtlich sind einige Reformen im Gang. Viele fragen sich gespannt: „China, quo vadis?“ In unserem informationstechnischen Zeitalter fragt man sich natürlich auch, wo China diesbezüglich steht und wohin es sich wohl entwickelt. Was unternimmt China bildungspolitisch in Richtung IKT? Dies sind zentrale Fragestellungen der vorliegenden Arbeit. Ganz besonderer Schwerpunkt wird dabei auf den IKT-Unterricht in der Schule sowie auf die Ausbildung der IKT-Lehrer gelegt, da hier die Ausrichtung für Chinas informationstechnische Zukunft bestimmt wird. So wird in der Arbeit der Versuch unternommen, das komplexe China hinsichtlich seiner IKT-Bildungspolitik detailliert und verständlich darzustellen. Im Anschluss an einen kurzen geschichtlichen Überblick wirdder derzeitige Stand der IKT-Ausbildung hinsichtlich aktueller Praxis, laufender Reformbestrebungen und zukünftiger Ausrichtungen dargelegt, hinterfragt und analysiert. Dazu wird das Bildungssystem in China mit dem heutigen Schulsystem und seinen Probleme beleuchtet. Danach wird konkret die IKT-Ausbildung an Chinas Schulen erläutert. Dem folgt ein Abschnitt über die Aus- und Weiterbildung der IKT-Lehrer. Dabei wird jeweils ein besonderes Augenmerk auf die aktuellen Reformen gelegt. Abschließend werden die Probleme und offenen Fragen dieser Reformen zusammengefasst. Trotz der in der Arbeit vorgestellten Analysen und Zusammenfassungen müssen die zentralen Fragestellungen letztlich offen bleiben, da wesentliche Fragen der Reformbestrebungen keine klare Antwort aufweisen, wie etwa in den Bereichen von GaoKao, Budget, Anreizsysteme, Ausbildungsstätten, IKT-Inhalte und Armutsgebiete. Es werden aber zahlreiche aktuelle Tendenzen, historische Gegebenheiten und Eigenheiten Chinas eingehend beleuchtet, um die Problematik zu erläutern, vor der die R

Diplomarbeitsposter Zach Robert

Robert Zach

Masterstudium Informatikmanagement
Abstract:

Auf Grund der Komplexität von IT-Systemen sind heutzutage viele Benutzer mit der Installation und Konfiguration von Computern überfordert. Speziell Benutzergruppen wie Privatanwender, Volksschulen, usw. müssen meist Experten beauftragen, wodurch enorme Kosten entstehen können. Doch auch höhere Schulen und Unternehmen leiden zunehmend unter den Kosten der Installation und Konfiguration unterschiedlicher IT-Systeme. Um diesen Aufwand zu minimieren wurde ein USB-Stick entwickelt der bereits ein fertig installiertes System enthält. Jeder beliebige Computer kann direkt von diesem so genannten Quick-Stick gestartet werden. Es ist keine Installation notwendig. Einfach anstecken, einschalten und loslegen. Das entwickelte System unterstützt unterschiedliche Software-Ausführungen in denen bereits alle benötigten Programme der jeweiligen Zielgruppe installiert sind. Im Zuge dieser Arbeit wird speziell auf den Einsatz im schulischen Bereich eingegangen. Als Betriebssystem wird Linux eingesetzt und Geschwindigkeitoptimierungen für den Einsatz auf einem USB-Stick analysiert und implemeniert. Die Konfiguration des Betriebssystems und das Laden der jeweiligen Treiber erfolgt beim Systemstart. Die grafische Oberfläche ist an ein gewohntes Erscheinungsbild angepasst.

Diplomarbeitsposter Zeilinger Siegfried

Siegfried Zeilinger

Wirtschaftsinformatik
Abstract:

Durch die fortschreitende Globalisierung sowie das Outsourcing von Geschäftsbereichen von Unternehmen ist die Standardisierung der internen Prozesse und die e ektive Kontrolle mittlerweile zu einem Muss geworden. Corporate Governance, ein Begriff, der nicht so einfach übersetzt werden kann, wird zum Schlagwort und zum Lösungsansatz für viele Probleme erklärt. Was steckt nun hinter diesem Schlagwort? Erhöhen sich Unternehmen dadurch eine vereinfachte Kontrolle der internen Strukturen, eine "Nachvollziehbarkeit" ähnlich den Grundsätzen guter Buchhaltung? Aus diesem weitläufigen Thema soll im Bereich dieser Arbeit zunächst der IT Bereich ausgegliedert werden. Dieser beschäftigt sich u.a. mit der Entwicklung, der Anpassung, der Wartung und dem Betreiben von ERP Software. ERP Software selbst dient der Datenverarbeitung der Daten, die bei der Ausübung der gewöhnlichen Geschäftstätigkeit anfallen. Aufgrund der Fülle und der Sensibilität dieser Daten müssen ERP Systeme gewissen Kriterien genügen. Die Umsetzung der Governance Regeln muss sich an diesen Kriterien orientieren. Die Arbeit befasst sich mit dem Software Lifecycle von ERP Systemen und den Regeln er Governance. Beim Change Management geht es darum, Software zu warten bzw. auf eine neue Release zu bringen. Für diesen Prozess gibt es im britischen ITIL Standard Vorgaben, die in ERP Lösungen bereits integriert wurden. Ziel der Arbeit ist es, diese Ansätze für Governance im Bereich Change Management zu beleuchten. Anhand eines praktischen Beispiels in SAP wird untersucht, wie weit aktuell erhältliche Change Management Tools für eine gute IT Governance brauchbar sind. Durch dieses praktische Beispiel kann als Resultat eine Einschätzung mitgegeben werden, wie viel IT Governance Unternehmen verschiedener Größe einsetzen sollten. Die entwickelte Modellbildung erklärt ausführlich, welche Teile von ITIL für kleine, mittlere, große und Konzernunternehmen relevant sind. Diese Aussagen sind besonders wichtig, weil das IT Gove

Arbeitsbereich (vor 2018) Computer Vision

Diplomarbeitsposter Greiner Stefan

Stefan Greiner

Wirtschaftsinformatik
Abstract:

Ziel meiner Diplomarbeit ist, die diversen technischen Grundparameter sowie Umgebungsparameter für die Entwicklung eines Kamerasystems zur Verkehrsüberwachung zu ermitteln und diese einzugrenzen. Der Schwerpunkt meiner Arbeit liegt auf der Geschwindigkeitsüberwachung mit dem Fokus auf die speziellen Rahmenbedingungen in Österreich, darüber hinaus wird auch auf die Situation in der EU eingegangen, sofern dies im Rahmen meiner Diplomarbeit möglich und sinnvoll ist. In dem, konzeptionell den Überlegungen zu Grunde liegenden, System soll die Hardware des Kamerasystems darauf ausgelegt sein, sowohl im Stadtverkehr, als auch im Überlandsverkehr die Geschwindigkeits-überwachung zu ermöglichen. Die notwendige Logik zur Analyse der entsprechenden Verkehrssituationen und der Ermittlung von Geschwindigkeits-übertretungen sollte durch Softwaremodule zur Verfügung gestellt werden. Um die Fragestellung beantworten zu können, wurde ein ausführliches Studium der spezifischen Literatur durchgeführt und es wurden praktische Versuche durchgeführt. Ich bin bei meiner Diplomarbeit zum Ergebnis gekommen, dass die aktuellen Rahmenbedingungen noch nicht gegeben sind, um Geschwindigkeitsmessungen mittels auf Videoanalyse basierenden Systemen mit ausreichender Genauigkeit und unter unterschiedlichen Rahmenbedingungen durchzuführen. Jedoch wird intensiv im Bereich der Bilderkennung geforscht, dass mittelfristig mit einer Änderung der Situation zu rechnen ist.

Diplomarbeitsposter Widhalm Peter

Peter Widhalm

Masterstudium Computational Intelligence
Abstract:

Der Beinachsen-Winkel, der durch die mechanischen Achsen des Femur und der Tibia definiert wird, ist von großer Bedeutung für die Orthopädie und Traumatologie, insbesondere für die Operationsplanung und die post-operative Nachversorgung. Ferner dient er als Prädiktor von Präarthritis. Post-operative Messungen geben Auskunft über den Erfolg des Eingriffs. Bisher gibt es ausschließlich manuelle und semi-automatisierte Messmethoden. Ihr größter Nachteil liegt in der mangelhaften Reproduzierbarkeit der Ergebnisse. Der zu messende Winkel wird durch Punkte in der anatomischen Struktur bestimmt, die nur vage definiert sind und nicht präzise identifiziert werden können. Die resultierende Variabilität zwischen wiederholten Messungen macht die Erkennung von kleinen Änderungen unmöglich. Eine vollautomatische Methode, die auf klar definierten Messpunkten basiert, würde die durch menschliche Interpretation verursachte Variabilität zwischen wiederholten Messungenen beseitigen und zu akkurateren und reproduzierbareren Ergebnissen führen. Im Zuge dieser Arbeit wurde eine neue Methode entwickelt und prospektiv getestet, die eine voll-automatische Messung des Beinachsen-Winkels auf Ganzbein-Röntgenaufnahmen mit hoher Präzision erlauben soll. Die Positionen der Beinknochen und -gelenke werden grob durch Sparse Markov Random Field Appearance Models ermittelt. Diese können anatomische Strukturen durch Konfigurationen von „interest points" erkennen, indem sie ihre räumliche Anordnung und lokale Erscheinung betrachten. Basierend auf der groben Lokalisierung der Knochen werden deren Konturen durch Active Shape Models erkannt. Dabei wird die Suche von laufenden Schätzungen der Zuverlässigkeit der aktuellen Modellanpassung gesteuert. Die Regionen um die Gelenke werden durch die Verwendung von Submodellen verfeinert. Die Modell-Punkte können durch ihren Index identifiziert und zwischen unterschiedlichen Instanzen einer Form zugeordnet werden. Daher können die Punkte, die zur Bestimmung der

Diplomarbeitsposter Zollner Helmut

Helmut Zollner

Diplomstudium Informatik
Abstract:

Zielsetzung der geometrischen Kamerakalibrierung ist ein parametrisiertes Model der projektiven Eigenschaften eines Bildaufnahmegerätes zu bestimmen. Diese Eigenschaften beschreiben die Zuordnung der Bildpunktkoordinaten zu den ihnen entsprechenden Sehstrahlen im Raum und sind von großer Wichtigkeit in Hinblick auf Anwendungen in der Computer Vision. In dieser Arbeit wird speziell auf das Problem der Kalibrierung von Zoomoptiken eingegangen. Die hohe Abhängigkeit einzelner Parameter von den Zoomeinstellungen erfordert deren Bestimmung über einen kontinuierlichen Zoomeinstellungsbereich. Da weiters nicht alle Modelparameter abhängig von der Zoomstufe sind, müssen nur die variablen unter ihnen für jede fortlaufende Einstellung kalibriert werden. Unter Ausnützung dieser Bedingungen wurden Methoden entwickelt, die ausschließlich auf Basis einer alle Modelparameter bestimmenden Vorkalibrierung eine Schätzung der zoom-abhängigen Parameter für alle anderen Zoomstufen erlauben. Dieser Ansatz wird auch in der hier vorgeschlagenen Lösung fortgeführt. Die eigentliche Neuerung der präsentierten Methode ist dadurch gegeben, wie im Einzelnen die Modellparameter an die sich ändernden Zoomeinstellungen angepasst werden und welche Arten von Funktionen für die Approximation des kontinuierlichen zoomabhängigen Kameramodels genutzt werden. Weiters wurde ein in präsentierter Lösungsansatz zur Beseitigung nicht perspektivischer dezentraler Verzeichnung unter Berücksichtigung einer möglichen Sensorneigung in das Basiskameramodell integriert. Darüber hinaus gelang es mittels Einbeziehung gewisser durch die Geometrie des Targets implizit orthogonal zueinanderstehende Fluchtpunkte in den Optimierungsprozess der Vorkalibrierung eine Stabilisierung des Bildhauptpunktes zu erreichen. Im Allgemeinen zeigen die empirische Experimente und Simulation, dass sich mit Hilfe der vorgeschlagenen Kalibriermethode ähnliche Größenordnungen in der Genauigkeit erzielen lassen, wie mit verwandten Verfahren

Institut für (vor 2018) InformationssystemeE184

Arbeitsbereich (vor 2018) Distributed Systems

Diplomarbeitsposter Blamauer Clemens

Clemens Blamauer

Masterstudium Business Informatics
Abstract:

With the increasing interest in Service Oriented Architectures and related technologies, such as Web Services and the Business Process Execution Language (BPEL), Business Process Management (BPM) has become more and more important in recent years. However, there still exists a gap between Business Process Modeling, as it is done by business experts, and Business Process Deployment and Execution, as it is maintained by IT Experts. Currently, a lot of research is going on in the field of semantic technologies which promise to enable a high level of automation to narrow or even close this gap. This should be achieved through a well-defined knowledge representation which allows reasoning on the one hand and generation of executable code on the other hand. In this thesis, we analyze the options to transfer ontologized knowledge representations into executable code and suggest a generic engineering process model using the facilities of Model Driven Software Development (MDSD) to fulfill this goal. This generic process is evaluated by introducing a concrete implementation done for the SemBiz project, where a semantic layer based on the Web Service Modeling Ontology (WSMO) is used for querying and reasoning over the process space, and a MDSD layer based on Eclipse Modeling Framework (EMF) is used for process abstraction and code generation.

Diplomarbeitsposter Bobik Hans Joachim

Hans Joachim Bobik

Masterstudium Software Engineering & Internet Computing
Abstract:

Serviceorientierte Architekturen haben in den letzten Jahren eine weite Verbreitung erfahren. Sie basieren auf der Annahme, dass komplexe Geschäftsprozesse durch die Komposition von verteilten Services aufgebaut werden können. Dabei kann ein Partner, der seine Anwendungen durch das Einbinden fremder Services komponiert, gleichzeitig Anbieter von Services für andere und somit Empfänger von Service-Requests sein. Aus Sicht des Empfängers von Service-Requests können in einer solchen Architektur Softwarekomponenten für das Dispatching von Anfragen sinnvoll sein - insbesondere in all jenen Fällen, in welchen mehr als ein Service existiert, welches eine eintreffende Anfrage abarbeiten kann. In diesen Fällen muss die Entscheidung getroffen werden, welches dieser Services für die Bearbeitung einer konkreten Anfrage herangezogen wird. Im Rahmen dieser Diplomarbeit wurde ein Dispatcher entworfen, welcher in der Lage ist, eintreffende Service-Requests basierend auf zuvor festgelegten Regeln an das am besten geeignete Service zur Verarbeitung weiterzuleiten sowie die Antwort des gewählten Service entgegenzunehmen und an den ursprünglichen Aufrufer zurückzugeben. Dabei können unter anderem Load-Balancing- oder Performance-Überlegungen für die Entscheidungsfindung eine Rolle spielen. Generell sollen die Entscheidungen auf Basis der Informationen über den Service-Request und über die Eigenschaften der zur Verfügung stehenden Services getroffen werden. Weiters sollen bei der Verarbeitung von Anfragen durch den Dispatcher statistische Informationen ermittelt werden, welche in der Folge ebenfalls Basis für weitere Entscheidungen sein können.

Diplomarbeitsposter Brenner Cornelia

Cornelia Brenner

Masterstudium Informatikmanagement
Abstract:

Das Projekt Edumoodle bietet allen Schulen die Möglichkeit eine Lernplattform für einen zeitgemäßen Unterricht zu nutzen. Edumoodle nutzt die gratis Software „Moodle“, da diese gegenüber vergleichbaren Produkten einige Vorzüge besitzt. Ziel und Zweck dieser Arbeit ist es, Lehrerinnen und Lehrern den Nutzen und einige Einsatzmöglichkeiten des Angebots „Edumoodle“ aufzuzeigen. Dazu werden die Arbeitsmaterialien, Aktivitäten und Blöcke, die Moodle zur Umsetzung der gewünschten Lernansätze zur Verfügung stellt vorgestellt. In eigens erstellten Beispielkursen können Interessierte verschiedenste Einsatzbeispiele ansehen und ausprobieren. Die, unter den österreichischen Schulen, welche eine Edumoodle-Instanz besitzen, durchgeführte Erhebung zeigt, warum die Lehrerinnen und Lehrer sie verwenden, und auf welche Art und Weise. Es wurde aber auch erhoben, welche Gründe gegen einen Einsatz im Schulunterricht sprechen.

Diplomarbeitsposter Kazazic Almir

Almir Kazazic

Masterstudium Software Engineering & Internet Computing
Abstract:

Die Welt ist unvorstellbar ohne verteilte Systeme. Trotzdem ist es alltäglich, dass diese Systeme versagen und wichtige Dienste wie Elektrizitätswerke, Banken oder Verkehr in unserer Welt hindern. Die Verlässlichkeit dieser Systeme könnte erheblich verbessert werden, wenn die Systemeinschränkungen ( Constraints) zumindest kurzfristig entspannt werden könnten. Das Ziel von Dependable Distributed Systems (DeDiSys) Projekt ist die Bereitstellung einer robusten Architektur die zur Erstellung von verlässlichen verteilten Systeme verwendet werden kann. Diese Magisterarbeit beschreibt eine Pilot-Implementierung dieser Architektur in Microsoft .NET 1.1 Diese Arbeit beschreibt erfolgreiche Implementierung der DeDiSys–Architektur, mit einigen Abweichungen von ursprünglicher Architektur. Erweiterte Konzepte von .NET Framework wie ContextBoundObjects und MessageSinks wurden verwendet, um Container-Architektur zu implementieren um einen direkten Zugriff auf Objekte und ihre Felder außerhalb der Middleware zu verbieten. Um Data-Einschränkungen (Constraints) und Abgleichroutinen (Reconciliation Handler) Anforderungen zu deklarieren und implementieren wurden .NET Attribute verwendet. Die Attribute sind als abstrakte Klassen implementiert und bieten eine einfache Möglichkeit für Anwendungsentwickler neue Abgleichroutinen und Einschränkungen zu definieren und zu implementieren. Diese Architektur ermöglicht eine saubere Trennung der Aufgaben (Separetion of Concnerns) zwischen Middleware (Einschränkungen, Abgleichrutinen usw.) und Anwendung (Domain Logik). Das ermöglicht dem Anwendungsentwickler seine Einschränkungen einfach anzugeben, entweder wehrend Kompile – Zeit als Attributen von Methoden, Klassen und Eigenschaften oder dynamisch während der Laufzeit diese zu registrieren. Alle abstrakte Klassen wurden implementiert und zusammen mit Unit-Test stellen sie ein „Proof of Concept" für diese Middleware dar. Diese Implementierung ermöglicht auch verschachtelte Methoden - Aufrufe („

Diplomarbeitsposter Körpert Alexander

Alexander Körpert

Masterstudium Software Engineering & Internet Computing
Abstract:

Produktivität in Geschäftsprozessen erfordert hoch automatisierte und dynamische Mechanismen zur zeitlichen Einteilung von Aktivitäten. Dabei spielt es keine Rolle, ob die zu erledigende Aufgabe der Modellierung eines Herstellungsprozesses von Autos oder der Beschreibung eines elektronischen Services, welches Anfragen an unzählige weitere Web Services weiterleitet, entspricht. Zentrale Fragen, wie „Welche Aktivität ist für diese Aufgabe am besten geeignet?“ bestimmen die Zusammenstellung von Workflows vor und während der Laufzeit.Diese Arbeit untersucht ein vereinfachtes Modell eines abstrakten Workflows, welches den Sachverhalt als ganzzahliges 0/1-Programm formuliert. Das Bewertungskriterium von Aktivitäten fußt auf der Zuordnung eines Kosten- und Nutzenwertes. Die Auswahl jener Aktivitäten mit maximalem Gesamtnutzenwert bei Gesamtkosten, die einen vorgegebenen Grenzwert nicht übersteigen, führt zu einem optimalen konkreten Workflow. Eine Heuristik, die auf dem revidierten Simplex-Verfahren basiert, macht sich das Runden der im Allgemeinen nicht ganzzahligen Lösung zu Nutze. Der Algorithmus wurde zusammen mit einem „On-The-Fly-Einlesevorgang“ als C Bibliothek implementiert. Weiters steuert für C# Applikationen ein objektorientierter Wrapper den Zugriff auf die Bibliotheksfunktionen. Das Test-Projekt umfasst Zufallstests für die Verifizierung der Funktionalität und ermöglicht darüber hinaus Experimente zur Laufzeitbestimmung. Der Algorithmus löst große Probleminstanzen mit ca.100000 Variablen auf einem 2.0 GHz Dual-Core Prozessor in 1,3 Sekunden. Dabei übersteigt der relative Fehler jedoch nicht den Reziprokwert der Knotenzahl pro Route. Der konfigurierbare Speicherverbrauch macht die Applikation auch für Geräte mit begrenztem Speicher interessant. Diesen Leistungsmerkmalen zufolge klingt eine Einbindung in ein Workflow Framework äußerst vielversprechend.

Arbeitsbereich (vor 2018) Database and Artificial Intelligence

Diplomarbeitsposter Hammerl Thomas

Thomas Hammerl

Masterstudium Software Engineering & Internet Computing
Abstract:

Viele Instanzen von Costraint Satisfaction Problemen sind effizient lösbar wenn sie als Tree oder als Generalized Hypertree Decomposition kleiner Breite dargestellt werden können. Das Auffinden der Decomposition geringster Breite ist jedoch selbst NP-complete und kann daher nur mit Heuristiken und Metaheuristiken in annehmbarer Zeit gelöst werden. Ant Colony Optimization (ACO) ist eine metaheuristische Methode die bisher noch nicht auf dieses Problem angewandt wurde. In dieser Diplomarbeit untersuchen wir fünf verschiedene Varianten von ACO Algorithmen für die Generierung von Tree und Hypertree Decompositions. Außerdem erweitern wir diese Implementierungen mit zwei lokalen Suchmethoden und vergleichen zwei Heuristiken, die den ACO Algorithmus lenken. Weiters experimentieren wir mit zwei unterschiedlichen Pheromone Update Strategien und stellen unsere C++ Bibliothek libaco vor mit deren Hilfe auch andere kombinatorische Optimierungsproblemen mit den in dieser Diplomarbeit beschriebenen ACO Algorithmen gelöst werden können. Um das zu demonstrieren beschreiben wir eine libaco-Implementierung für das Travelling Salesman Problem. Unsere Testergebnisse für ausgewählte Beispiele der DIMACS Graph Coloring Library und der CSP Hypergraph Library zeigen, dass die ACO Metaheuristik für viele Probleminstanzen Ergebnisse liefert welche mit Ergebnissen anderer Verfahren wie beispielsweise Tabu Search und Branch & Bound vergleichbar sind. Einer der vorstellten Algorithmen konnte sogar die bisher besten bekannten Ergebnisse für eine Probleminstanz verbessern. Dessen ungeachtet liefern die ACO Algorithmen insbesondere für komplexere Probleminstanzen schlechtere Ergebnisse als andere bekannte Methoden.

Diplomarbeitsposter Rümmele Stefan

Stefan Rümmele

Masterstudium Computational Intelligence
Abstract:

Das Konzept der beschränkten Baumweite hat sich bewährt um effizient lösbare Fragmente von im Grunde nicht effizient lösbaren Probleme zu finden. Ein wichtiges Resultat in diesem Bereich ist Courcelle's Theorem, welches besagt, dass jede Eigenschaft endlicher Strukturen, die sich in monadischer Logik zweiter Stufe (MSO) ausdrücken lässt, effizient berechenbar ist, falls die Baumbreite der Struktur durch eine Konstante beschränkt ist. Arnborg et al. haben dieses Resultat auf Abzählprobleme erweitert. Jedoch führten beide Beweise nicht zu einem implementier- baren Algorithmus. Kürzlich wurde von Gottlob et al. ein alternativer Ansatz mittels monadischem Datalog vorgestellt, um diese Lücke für Entscheidungsprobleme zu schließen. Das Ziel der vorliegenden Arbeit ist, diese Methode zu erweitern, um damit auch Abzählprobleme be- handeln zu können. Wir zeigen, dass der monadische Datalog-Ansatz in der Tat für alle MSO-definierbaren Abzählprobleme anwendbar ist. Außerdem schlagen wir konkrete Algorithmen mit parametrisierter linear Laufzeit vor, um die Probleme #Sat, #Circumscription und #Horn-Abduction zu lösen.

Diplomarbeitsposter Thurnher Christopher Michael

Christopher Michael Thurnher

Masterstudium Software Engineering & Internet Computing
Abstract:

Automatische Testfallgenerierung ist ein aktuelles Forschungsgebiet. Es gibt sehr gute Tools, die Testfälle ausgehend von Input/Output Symbolic Transition Systems (IOSTS), ein auf State/Transition basierendes Modell, erzeugen können. Diese Repräsentation wird in der Industrie jedoch nicht zur Systemspezifikation verwendet. UML ist der de facto Standard in diesem Gebiet. Diese Diplomarbeit schließt die Lücke zwischen der Systemspezifikation anhand von UML 2 und den Möglichkeiten der automatisierten Testfallgenerierung basierend auf IOSTS. Eine Modelltransformation von UML 2 zu IOSTS wird präsentiert. Tools, die die Fähigkeit besitzen ausgehend von IOSTS Testfälle zu generieren, können diese dann nutzen, wie der Symbolic Test Generator (STG), welcher auch im Rahmen dieser Diplomarbeit vorgestellt wird. UML ist sehr allgemein, es existieren sehr viele Diagramme und Elemente mit denen Systeme spezifiziert werden können. Deshalb benutzt der Transformationsalgorithmus nur eine Teilmenge von UML. Diese Teilmenge wird im Rahmen der Diplomarbeit genau spezifiziert. Der Hauptteil dieser Arbeit ist der Transformationsalgorithmus. Es wird sehr detailliert erklärt, wie die UML Elemente auf die IOSTS Elemente abgebildet werden. Eine Pseudocode Implementierung des Algorithmus wird auch präsentiert. Da die Transformation nicht vom Tool, das die generierten IOSTS benützt, abhängen soll, wird ein allgemeines IOSTS Metamodell eingeführt. Die eigentliche Transformation ist aufgeteilt in eine Modell zu Modell Transformation, um ein IOSTS Modell zu generieren, welches dem allgemeinen Metamodell entspricht und in eine Modell zu Text Transformation, um die spezifische textuelle Repräsentation zu erstellen mit der ein beliebiges Tool umgehen kann. Ein praktischen Beispiel, das Conference Protocol, veranschaulicht die Transformation. Es wird der gesamte Transformationsprozess ausgehend von einer UML Spezifikation gezeigt. Das Ergebnis ist eine IOSTS Spezifikation welche das STG Tool lesen

Arbeitsbereich (vor 2018) Knowledge Based Systems

Diplomarbeitsposter Gaggl Sarah Alice

Sarah Alice Gaggl

Masterstudium Computational Intelligence
Abstract:

Im Laufe der letzten Jahre hat sich Argumentation als ein zentrales Gebiet in der Künstlichen Intelligenz (KI) etabliert. Dung führte 1995 Argumentation Frameworks (AFs) als ein formales System ein, das es einem ermöglicht, aus widersprüchlichem Wissen Schlüsse zu ziehen. Desweiteren hat er mehrere Semantiken definiert (z.B.: admissible, complete, preferred und grounded) mit deren Hilfe man Mengen von zulässigen Argumenten berechnen kann. Ausgehend von Dung's Framework wurden seither viele weitere Semantiken eingeführt. Zudem wurde auch das Framework durch Präferenzrelationen (PAFs), Werte (VAFs) und Unterstüzungsrelationen (BAFs) erweitert. All das führte zu einer Vielzahl an unterschiedlichen Frameworks und Semantiken. Trotz ausgiebiger Forschung auf diesem Gebiet, gibt es noch immer kein System, mit dem man alle grundlegenden Semantiken von Dung berechnen kann. Daher war der Hauptbestandteil dieser Diplomarbeit, ein System zu entwickeln, mit dessen Hilfe man alle Semantiken für Dungs Framework, sowie für PAFs, VAFs und BAFs berechen kann. Unser System ASPARTIX zeichnet sich dadurch aus, dass es aus einem fixen disjunktiven logischen Programm besteht, welches vollkommen unabhängig vom jeweiligen Argumentation Framework ist. Das bedeutet, dass der Benutzer nur das Framework und die gewünschte Semantik als Eingabedatenbank spezifizieren muss. Daher kann ASPARTIX auf einfache Weise verwendet werden, um die Unterschiede und Zusammenhänge der verschiedenen Semantiken und Frameworks zu erforschen. Die Modularität unseres Systems ermöglicht eine einfache Erweiterung und Verbesserung.

Diplomarbeitsposter Haller Leopold

Leopold Haller

Masterstudium Computational Intelligence
Abstract:

Das propositionale Erfüllbarkeitsproblem ist ein klassisches Entscheidungsproblem der theoretischen Informatik. Es war das erste Entscheidungsproblem für das NP-Vollständigkeit bewiesen wurde. In den letzten fünfzehn Jahren hat sich die Effizienz von Lösungsalgorithmen für Instanzen in konjunktiver Normalform enorm verbessert. Programme, die das Erfüllbarkeitsproblem lösen (sogenannte SAT Solver), finden heute vielfältige Anwendung in Industrie und Forschung, etwa in Soft- und Hardwareverifikation und in Logik-basierter Planung. Bei der Übersetzung von strukturierten Formeln oder Schaltkreisinstanzen in konjunktive Normalform (KNF) geht die ursprüngliche Strukturinformation der Formel verloren. Durch deren Verlust wird der Einsatz strukturbasierter Heuristiken zum Beschleunigen des Lösungsprozesses unmöglich. In dieser Arbeit wird eine Erweiterung des BC Tableaukalküls zur Feststellung der Erfüllbarkeit von beschränkten kombinatorischen Schaltkreisen präsentiert. Eine kurze Einführung in propositionale Logik und das Erfüllbarkeitsproblem (SAT) wird gegeben, und es wird der klassische Davis-Logemann-Loveland (DLL) Algorithmus zur Lösung von SAT Instanzen in konjunktiver Normalform präsentiert. Es wird aufgezeigt, wie moderne KNF-Solver das grundlegende DLL Schema um nicht-chronologisches Backtracking und Lernen erweitern. Moderne Techniken werden beschrieben mithilfe derer SAT-Solver in der Lage sind praktisch relevante Probleme in Industrie und Forschung zu lösen, und es werden Ansätze präsentiert um das Lösen des SAT Problems in Schaltkreisinstanzen zu beschleunigen. Es wird gezeigt, dass eine Implementierung des BC Tableaus als generalisierte DLL Prozedur gesehen werden kann und es wird dargestellt, wie sich Techniken aus dem Bereich des KNF-basierten SAT Solving in das BC Tableau integrieren lassen. Ein Prototyp einer solchen erweiterten Tableauprozedur wurde entwickelt und seine Effektivität im Vergleich zu bestehenden SAT Solvern evaluiert. Es zeigt sich, das

Institut für (vor 2018) Institut für ComputersprachenE185

Arbeitsbereich (vor 2018) Programmiersprachen und Übersetzer

Diplomarbeitsposter Kamper Gerald

Gerald Kamper

Masterstudium Software Engineering & Internet Computing
Abstract:

Die dynamische Programmiersprache Ruby wird immer populärer. Es herrscht aber noch immer viel Unklarheit darüber, wie sie in der Praxis eingesetzt wird und für welche Projekte sie vielleicht besser geeignet ist, als statisch typisierte Sprachen wie Java und C#. In dieser Arbeit wird Ruby genauer untersucht und mit C# verglichen. Dabei beschränke ich mich aber auf die objektorientierten Spracheigenschaften Vererbung und Polymorphie, um mehr in die Tiefe gehen zu können und da es gerade hier interessante Unterschiede gibt. Im ersten Teil der Arbeit werden die theoretischen Unterschiede und Trade-offs der beiden Sprachen bezogen auf Vererbung und Polymorphie analysiert und oft anhand kurzer Code-Beispiele verdeutlicht. Der zweite Teil besteht aus einer Untersuchung von insgesamt 45 Open Source-Projekten, die die Frage beantworten soll, wie die beiden objektorientierten Sprachkonzepte jeweils in der Praxis eingesetzt werden. Das interessanteste Ergebnis der Analyse des Open Source-Codes ist, dass in beiden Sprachen um die 65% der Klassen abgeleitet sind. Dieser hohe Wert überrascht vor allem bei Ruby, da hier keine Vererbungsbeziehungen für Polymorphie benötigt werden. Eine genauere Untersuchung der Projekte kann diesen Umstand allerdings erklären.

Diplomarbeitsposter Molnar Peter

Peter Molnar

Masterstudium Software Engineering & Internet Computing
Abstract:

Escapeanalyse ist eine statische Analyse, welche feststellt, ob Objekte länger leben als deren Erzeuger. Die durch Escapeanalyse zusätzlich gewonnenen Informationen können zur Optimierung der Speicherverwaltung und Synchronisation in einer virtuellen Maschine genutzt werden. Im Kontext dieser Arbeit wurde Escapeanalyse für die freie virtuelle Maschine CACAO implementiert. Die Analyse arbeitet in zwei Schritten. Die intraprozedurale Analyse berechnet Escapeinformation für einzelne Allokationspunkte in einer Methode und Information für die gesamte Methode, welche im Rahmen von einer interprozeduralen Analyse in verschiedenen Aufrufkontexten wiederverwendet werden kann. Die berechnete Escapeinformation wird verwendet um einen Teil von threadlokalen Java Objekten auf dem Stack zu allozieren. Die Implementierung und die notwendigen Änderungen der virtuellen Maschine werden im Detail beschrieben. Anschließend wird die Implementierung durch Benchmarken evaluiert. In einigen Spec-Benchmarks werden 50% bis 90% von Java Objekten auf dem Stack alloziert, was zu einer Verbesserung der Laufzeit von bis zu 40% führt.

Arbeitsbereich (vor 2018) Theoretische Informatik und Logik

Diplomarbeitsposter Fechete Raul

Raul Fechete

Masterstudium Software Engineering & Internet Computing
Abstract:

Mit dem Anbruch des Omics-Zeitalters wird in der Molekularbiologie ein neues Paradigma geboren, die Extraktion von kausalen Zusammenhängen aus deskriptiven Daten, das, in weiterer Folge, als Grundkonzept für ein neues Forschungsgebiet dient - die Computational Systems Biology. Zur selben Zeit findet ein Perspektivenwechsel statt, der den Forschungsschwerpunkt von der Datensammlung auf die Datenauswertung verschiebt. Diese Diplomarbeit stellt einen neuen Ansatz zur Wissensgenerierung vor. Durch die Kombination verschiedener Omics Datentypen bauen wir ein molekulares Abhängigkeitsnetzwerk auf, das als Basis für unser neues Wissensableitungsverfahren dient. Eine gut strukturierte grafische Darstellung der Abhängigkeiten zwischen Genen, Transkripten und Proteinen kann das Verständnis der zugrunde liegenden Prozessen wesentlich verbessern und, in weiterer Folge, die Hypothesengenerierung für Laborexperimenten optimieren. Wir stellen ein dreistufiges Verfahren vor, das aus Data Warehousing, Informationskonsolidierung und -analyse besteht. Abschließend untersuchen wir unsere Methode mit Datensätzen aus der B-Zell Lymphom- und ischämischer Reperfusionsschadensforschung.

Diplomarbeitsposter Leitner Stefan

Stefan Leitner

Wirtschaftsinformatik
Abstract:

Die Einführung elektronischer Gesundheitsakten wird, aufgrund der erhofften Effi-zienzsteigerungen im Gesundheitswesen und den damit verbundenen Einsparungen, in vielen europäischen Ländern diskutiert. Dabei gibt es mehrere Lösungsansätze ein sol-ches Gesundheitsaktsystem zu implementieren. Zwei dieser Ansätze werden im Rah-men dieser Arbeit näher untersucht und miteinander verglichen. Dabei handelt es sich um die Untersuchung von serverbasierten Systemen, die am Fallbeispiel Google Health näher beschrieben werden, sowie von dezentral individualisierten Systemen, denen die USB-Med-O-Card als Beispiel dient. Um die beiden Architekturansätze miteinander vergleichen zu können, müssen die theoretischen Grundlagen und Definitionen der zahlreichen Begrifflichkeiten rund um den Themenkomplex Krankenakte ausgearbeitet und verständlich gemacht werden. Im Rahmen eines Experteninterviews werden Vor- und Nachteile von serverbasierten und dezentral individualisierten Gesundheitsaktsystematiken verglichen. Die anschlie-ßende Auswertung zeigt bei beiden Systemen viele Vorteile, allerdings auch große Schwächen auf. Eine Aussage, welches System für die Anforderungen einer Gesund-heitsakte zu präferieren ist, kann daher nicht gegeben werden. Vielmehr kommt man zu der Erkenntnis, dass jedes System auf unterschiedliche Aufgaben zugeschnitten ist. Auffallendstes Unterscheidungsmerkmal ist die Kundenakzeptanz, die bei dezentral individualisierten Systemen von den Experten weit höher als die Kundenakzeptanz bei serverbasierten Systemen eingestuft und damit begründet wird, dass der Patient seine Daten im übertragenen Sinn „angreifen" kann. Andererseits können bei serverbasier-ten Gesundheitsaktsystematiken wesentlich leichter Services implementiert werden, was für Cross Marketing sehr interessant sein dürfte. Die Wahl des Systems soll aber schlussendlich dem Patienten überlassen werden - eine Koexistenz beider Systeme würde dabei vermutlich den größten Nutzen bringen.

Diplomarbeitsposter Schindler Paul

Paul Schindler

Masterstudium Informatikmanagement
Abstract:

Aus historischer Sicht nehmen Banken bei der Verarbeitung großer Datenmengen in der IT-Welt eine Vorreiterrolle ein, wobei bereits in den 1960er Jahren Informatik zum Einsatz kam. Die im Back-Office verwendeten Alt-Applikationen (Legacy-Systeme) wurden in maschinennahen Sprachen wie COBOL oder Assembler implementiert, deren Grundstrukturen bis heute praktisch unverändert blieben. Immer neue Zusatzentwicklungen ließen die Komplexität der Systeme stark ansteigen. Durch dieses historische Wachstum sind die hoch integrierten Systeme sehr schlecht dokumentiert, schwer nachvollziehbar und aufwändig zu warten. Ebenso fehlen bis heute einheitliche Standards zur Datenübertragung. Hohe Implementierungs- und steigende Wartungskosten der nicht-standardisierten Schnittstellen der Legacy-Systeme, sowie der proprietären Formate beim unternehmensübergreifenden Datenaustausch stellen die Motivation dieser Arbeit dar, in der die Schnittstellenproblematik sowohl innerhalb der Banken-IT als auch zu externen Partnern der Bank analysiert wird. Die Anwendung neuer Technologien in Banken benötigt ein umfassendes Konzept zur Schulung der Mitarbeiter. Die didaktische Analyse der Schnittstellenproblematik hat eine Liste von notwendigen Schulungen zum Ergebnis, welche als Lösungsansatz für die Schnittstellenproblematik in Banken dienen soll. Schulungen sind einerseits finanzieller und personeller Aufwand und somit risikobehaftet, andererseits jedoch im Falle einer „richtigen“ strategischen Entscheidung essentiell für die Zukunft. Die technische Analyse hat zum Ergebnis, dass sich sowohl XML als Datenformat als auch XML Schema als Metasprache im Bankensektor weiterhin durchsetzen werden. Weiters trifft dies auf der Ebene der Vereinheitlichung des europäischen Zahlungsverkehrssystems zu. Zusammenfassend wird aufgezeigt, dass neue Technologien auf die Interprozesskommunikation in hoch komplexen, historisch gewachsenen Systemen anwendbar sind und entsprechende Vorteile nach sich ziehen.

Institut für (vor 2018) Institut für Computergraphik und AlgorithmenE186

Arbeitsbereich (vor 2018) Algorithms and Complexity

Diplomarbeitsposter Musil Nina

Nina Musil

Masterstudium Software Engineering & Internet Computing
Abstract:

Das effiziente Senden von Daten über Netzwerke gewinnt zunehmend mehr an Relevanz – von Internettelefonie bis hin zu Event-basierten Nachrichtensystemen. In dieser Arbeit wird das Design eines Netzwerkes, in welchem mehrere Nachrichten gleichzeitig übermittelt werden sollen, hinsichtlich Erstellungs- und Üertragungskosten optimiert. Die Verbindungen sind durch Kapazitäten beschränkt, die Nachrichten müssen Zeitvorgaben hinsichtlich der Übermittlungsdauer und Vorgaben bezüglich des Übertragungsprotokolls einhalten. In dieser Arbeit werden verschiedene algorithmische Ansätze zur Lösung dieses NP-schweren Problems erörtert. Ein Verfahren basierend auf ganzzahliger linearer Programmierung ermöglicht das exakte Lösen kleiner Probleminstanzen. Um das Problem zu vereinfachen werden bei der Lagrange Relaxierung schwierige Nebenbedingungen als Lagrange-Multiplikatoren in die Zielfunktion aufgenommen. Dadurch ergibt sich für jeden Transport ein unabhängiges Teilproblem. Aufgrund dessen werden durch iterative Verfahren die Koeffizienten der Lagrange-Multiplikatoren angepasst und somit untere Schranken für das Ausgangsproblem gefunden. Durch Heuristiken wird versucht daraus gültige Lösungen zu erzeugen. Basierend auf einer alternativen Problemformulierung, bei welcher jedem möglichen Pfad eine Variable entspricht, wird das Problem durch Spaltengenerierung gelöst. Ausgehend von einer gültigen Lösung werden in einem iterativen Prozess nur jene Variablen hinzugefügt, welche die Lösung weiter verbessern können. Die Bestimmung dieser Variablen erfolgt aufgrund der Lösung des selben Subproblems wie bei der Lagrange Relaxierung. Mit den vorgestellten Verfahren können kleine Instanzen in wenigen Minuten beweisbar optimal gelöst werden, für größere Instanzen können gute heuristische Lösungen gefunden werden. Die scharfen unteren Schranken der Lagrange Relaxierung ermöglichen zuverlässige Aussagen über die Qualität heuristischer Lösungen. Umfangreiche experimentelle Tests belegen die V

Diplomarbeitsposter Obweger Hannes

Hannes Obweger

Masterstudium Software Engineering & Internet Computing
Abstract:

This thesis contributes to the field of complex event-data analysis novel and formally well-founded methods for similarity searching, both on the level of single events and on the level of sequences of events. As event-based systems may produce highly diverse data sets, the main focus of our considerations is on highest possible flexibility. Also, the approaches shall be intelligible to business analysts and, of course, generate meaningful and intuitive results. Finally, the approaches shall be conceptually independent from concrete Complex Event Processing solutions and instead build upon abstract and generally accepted definitions of events, event types, etc. Our approach on single-event similarity builds upon geometric ideas of similarity, with event attribute values defining the relative positioning of two events in an n-dimensional space. Thereby, the similarity between two events is calculated from weighted attribute-level similarities. The proposed approach on event-sequence similarity outperforms existing approaches by allowing analysts to consider event-level similarities, order, and relative and absolute temporal structures in a highly flexible manner. It builds upon an assignment-based understanding of sequence similarity, where each unit of the pattern sequence is considered either represented by a certain event of the target sequence or missing therein. Our algorithm finds the best-possible assignment of the target sequence using a Branch & Bound strategy. This assignment is then used for calculating the similarity between the given sequences. We conclude this work with a practical evaluation, where we apply the approach on event-sequence similarity in real-world scenarios from three application domains. We figured out that the algorithm performs excellent for short and sharp-edged sequences where a majority of events constitute clear and significant characteristics of the event sequence.

Diplomarbeitsposter Ritzinger Ulrike Maria

Ulrike Maria Ritzinger

Masterstudium Software Engineering & Internet Computing
Abstract:

In dieser Arbeit werden unterschiedliche Ansätze zum Generieren von Ein- und Umlagervorschlägen in einem Lager mit einer Last-In First-Out Strategie vorgestellt. Das Ziel besteht darin, den Zeitaufwand der Auslagerungen, in Betracht auf eine gegebene Lagerstrategie, möglichst gering zu halten. Eine einfache und zeitsparende Auslagerung charakterisiert sich dadurch, dass die Verladung der Ware ohne aufwändige Umräumungen vollzogen werden kann. Dies kann erreicht werden, indem die Ware bei der Einlagerung so im Lager platziert wird, dass auf die entsprechenden auszulagernden Waren ein direkter Zugriff gegeben ist. Dafür ist ein System entwickelt worden, das, aufgrund von Informationen über die Waren und den Lagerzustand, eine im Hinblick auf die Auslagerung optimale Einlagerung liefert. Zusätzlich wird die Möglichkeit geboten, durch Umlagerungen des Lagerinhalts, vorhandene Problematiken bezüglich der Auslagerung aufzuheben, sodass wiederum die Auslagerzeiten minimiert werden. Um dies umzusetzen wurde eine Funktion modelliert, die unter Berücksichtigung der Problematiken hinsichtlich der Auslagerungen, eine Bewertung des Lagerzustands vornimmt, welche bei den Ein- und Umlagerungen minimiert wird. Die Einlagerung selbst wird mittels Greedy Verfahren realisiert, während Umlagervorschläge unter anderem mit Verfahren basierend auf Lokaler Suche (engl. local search) und Variabler Nachbarschaftsabstieg (engl. variable neighborhood descent) berechnet werden. Die entwickelten Methoden konnten anhand von Echtweltdaten getestet werden, da der im Zuge der Arbeit entstandene Prototyp inzwischen in einem Lager eines Papierherstellers im Einsatz ist. Es wird gezeigt, dass die Einführung der Einlagerungsstrategie zu einem erheblich besseren Lagerzustand führt, und dadurch die Auslagerung der Ware effizienter und somit kostengünstiger durchführbar ist.

Diplomarbeitsposter Sramko Andrej

Andrej Sramko

Masterstudium Software Engineering & Internet Computing
Abstract:

Genetische Algorithmen sind robuste Optimierungstechniken. Sie haben sich als effektiv für viele verschiedene Optimierungsprobleme erwiesen. Viele Teilverbesserungen wurden entwickelt um spezielle Probleme zu lösen. Es ist aber schwierig eine Technik, die allgemeiner angewandt werden kann, zu finden. Im Rahmen dieser Arbeit beschreibe ich einen Mechanismus, der die Fähigkeit der Genetischen Algorithmen eine bessere Lösung zu finden erhöhen sollte. Ein komplettes Archiv, das auf der Trie-Datenstruktur basiert, wird eingeführt. Die Idee des Archivs ist alle besuchte Lösungen effizient zu speichern, Wiederbesuche vermeiden und ein gutes und intelligentes Verfahren zur Transformation bereits besuchter Lösungen auf ähnliche noch nicht besuchte Lösungen zu haben. Der genetische Algorithmus kann als separates Modul, das Kandidatenlösungen generiert, gesehen werden. Jede generierte Lösung wird zum Trie weitergeleitet. Wenn der Trie die Lösung erhält, kontrolliert er, ob sie bereits im Archiv vorhanden ist. Falls nein, wird die Lösung einfach gespeichert. Falls ja, würde ein Wiederbesuch entstehen. Das Vermeiden von Wiederbesuchen kann auf verschiedene Art und Weise erreicht werden. Das Ziel ist eine ähnliche noch nicht besuchte Lösung zu erzeugen. Das Archiv unterstützt dies sehr gut. Nach diesem Prozess wird die ursprüngliche oder geänderte Lösung dem genetischen Algorithmus zurückgegeben. Dieses Verfahren wurde auf drei Problemen implementiert und getestet: das Royal Road Problem, NK Landscapes und das MAX-SAT Problem. Der standard genetische Algorithmus wird mit verschiedenen Varianten des neuen Verfahrens verglichen. Die Ergebnisse zeigen, dass in vielen Fällen das Archiv hilft die Qualität der Endlösungen zu verbessern, oder dass es die Anzahl der notwendigen Iterationen um die optimale Lösung zu finden reduziert.

Diplomarbeitsposter Suntinger Martin

Martin Suntinger

Masterstudium Software Engineering & Internet Computing
Abstract:

Event‐based systems enable real‐time monitoring of business incidents and automated decision making to react on threats or seize time‐critical business opportunities. Applications thereof are manifold, ranging from logistics, fraud detection and recommender systems to automated trading. Business incidents reflect in sequences of events. Understanding these sequences is crucial for designing accurate decision rules. At the same time, analysis tools for event data are still in their infancy. The on‐hand thesis presents a comprehensive and generic model for similarity search in event data. It illuminates several application domains to derive requirements for fuzzy retrieval of event sequences. Similarity assessment starts at the level of data fields encapsulated in single events. In addition, occurrence times of events, their order, missing events and redundant events are considered. In a graphical editor, the analyst models search‐constraints and refines the pattern sequence. The model aims at utmost flexibility which is achieved by pattern modeling, configurable similarity techniques with different semantics and adjustable weights for similarity features. The algorithm computes the similarity between two event sequences based on assigning events in the target sequence to events in the pattern sequence with respect to given search constraints. An efficient Branch‐&‐Bound algorithm finds the best possible assignment, to compute the final similarity score. In addition, a novel way for time‐series similarity is introduced and integrated. It slices a time‐series at decisive turning points of the curve and compares the slopes between these turning points. We surveyed applicability in real‐world scenarios in four case studies. Results are promising for structured business processes of limited length. When choosing appropriate configuration parameters to focus the search on aspects of interest, it is able to reveal if a reference case is a reoccurring pattern in the data.

Arbeitsbereich (vor 2018) Computergraphik

Diplomarbeitsposter Fritz Laura

Laura Fritz

Masterstudium Visual Computing
Abstract:

Zerstörungsfreie Werkstoffprüfung (ZfP) ist heutzutage ein Schlüsselaspekt in der Maschinenbau- und Bauindustrie, und dient zur Inspizierung der internen Strukturen von, zum Beispiel Maschinenteilen, Rohren und Drahtseilen, ohne dabei ihre Struktur zu zerstören. Diese Diplomarbeit wurde speziell zur Untersuchung von industriellen Computer Tomographischen (CT) Daten durchgeführt mit dem Ziel, den gesamten Quantifizierungsablauf eines vorliegenden Werkstücks zu erleichtern. Der üblicherweise verwendete Anstatz zur Erkennung von Ungänzen in Bauteilen basiert auf Region-Growing-Methoden, welche sowohl das Setzen von Parametern wie Varianz-, Dichte- und Featuregrössenintervall verlangen, als auch manchmal ein manuelles Setzen von Seeds voraussetzt. Um zu vermeiden, dass der gesamte Region-Growing-Prozess bei nichtzufriedenstellenden Ergebnissen wiederholt werden muss, erlaubt die in dieser Diplomarbeit vorgelegte Methode eine interaktive Erforschung des Parameterraums, welche sich komplett von dem zu Grunde liegenden Region-Growing-Prozess abhebt. Auch das Setzen von Seeds passiert automatisch. Das zuvor berechnete Feature-Volumen verfolgt für jedes Voxel eine eigene Featuregrössen-Kurve über die Zeit, welche durch den wichtigsten Region-Growing-Parameter (in unserem Fall die Varianz) bestimmt wird. Zusätzlich wird eine neue 3D Transfer Funktion über (Dichte, Featuregrössen, Zeit) vorgestellt, welche zur interaktiven Untersuchung der verschiedenen Klassen von Ungänzen herangezogen werden kann. Ungänzen- und Featuregrössenkurven können auch individuell betrachtet werden, was die Einstellung der Transfer Funktion erleichtern soll. Die einzelnen Ungänzen können je nach Bedarf farblich hervorgehoben, oder von der Quantifizierung ausgeschlossen werden (z.B. durch die CT Aufnahme entstandene Artefakte). Die Quantifizierung der erhaltenen Featureklassen erfolgt zeitgleich mit der Exploration. Die Ergebnissse werden anhand verschiedener, Daten aus der Industrie gezeigt.

Diplomarbeitsposter Müller Stefan

Stefan Müller

Masterstudium Visual Computing
Abstract:

Wissensbasierte Systeme (WBS) stellen für viele Anwendungen einen immer wichtigeren Bereich dar. Aus Anwendersicht erlauben es WBS neues Wissen aus der Wissensbasis zu folgern und bestehende Daten effizient zu verwalten. Aus Entwicklersicht wird die schnelle Anpassung an einen Problembereich ermöglicht, da Wissen von Geschäfts-Logik getrennt wird. Das m2n Intelligence Management Framework stellt eine Möglichkeit dar, WBS, die komplett durch einen semantischen Graphen beschrieben sind, im Rapid-Prototyping-Verfahren zu erstellen. Dieser Graph wird mit Hilfes des Resource Description Framework (RDF) definiert. In dieser Arbeit werden Möglichkeiten aufgezeigt den semantischen Graphen einer m2n Anwendung zu visualisieren und interaktiv zu manipulieren. Dazu wurden existierende Werkzeuge zur Visualisierung von RDF- und OWL-Daten sowie Technologien aus dem Bereich der Informations-Visualisierung untersucht. Darauf aufbauend wurde die bestehende Visualisierung überarbeitet und Techniken zur direkten Manipulation, zur Fokus & Kontext Visualisierung und zum Linking & Brushing integriert. Die entwickelte Komponente kann auf beliebige Anwendungsfälle, wie z.B. die Exploration und Modellierung von Ontologie-, Geschäftsprozess- und Instanz-Daten, angepasst werden. Um die Entwicklung zu evaluieren, wurde ein Thinking Aloud Test mit acht Nutzern des Systems durchgeführt. Die Ergebnisse des Tests fließen in die Weiterentwicklung der Komponente ein.

Diplomarbeitsposter Reisner-Kollmann Irene

Irene Reisner-Kollmann

Masterstudium Visual Computing
Abstract:

Photogrammetrische Rekonstruktion hat verschiedenste Anwendungsmöglichkeiten. Anhand von Bildern einer Szene können 3D-Modelle rekonstruiert oder direkt Bilder aus neuen Kamerawinkeln generiert werden. Alle Anwendungen haben gemeinsam, dass zunächst die Kameras der aufgenommenen Bilder orientiert werden müssen. Dazu wird meist ein automatisches Verfahren basierend auf Merkmalspunkten verwendet. Eine genaue Berechnung der Position und Orientierung der Kameras ist essentiell für alle nachfolgenden Rekonstruktionstechniken. Da das automatische Verfahren häufig ungenau ist oder einen Teil der Bilder nicht zueinander orientieren kann, wird in dieser Arbeit ein graphisches User Interface präsentiert, mit dem die Ergebnisse verbessert werden können. Die Fehler entstehen durch falsche Zuordnung von Merkmalspunkten, oder es wurden zu wenige Punkte in einem Bereich gefunden. Das GUI gibt dem/r BenutzerIn die Möglichkeit die Fehler zu beheben, indem die Merkmalspunkte bearbeitet werden können. Ein wichtiger Faktor ist dabei, dass das GUI aufzeigt, bei welchen Bildern und weiterer Folge bei welchen Merkmalspunkten wahrscheinlich Fehler vorhanden sind. Das User Interface unterstützt den/die BenutzerIn bei der Suche nach möglichen Fehlerquellen und gibt ihm/ihr die Möglichkeit, diese zu beheben. Weiters bietet das User Interface die Möglichkeit, die Ergebnisse zu begutachten und einen ersten Überblick über die Szene zu erhalten. Verschiedenste Ansichten und Editoren erleichtern dem/r BenutzerIn das Verbessern der Kamera-Orientierungen.

Diplomarbeitsposter Schwärzler Michael Bernhard

Michael Bernhard Schwärzler

Masterstudium Visual Computing
Abstract:

In dieser Diplomarbeit wird die Berechnung und Verwendung von weichen Schatten in Anwendungen der Echtzeitgraphik behandelt.Während harte Schatten bereits häufig in Spielen und Programmen eingesetzt werden, ist die Verwendung von weichen Schatten, die anstelle von Punktlichtquellen von Flächenlichtquellen erzeugt werden, aufgrund der viel höheren Berechnungskomplexität noch eher selten und stellt deshalb auch immer noch ein aktives Forschungsgebiet dar. Der Mehraufwand, den die Verwendung von weichen Schatten mit sich bringt, lohnt sich aber dennoch: Beinahe jeder Schatten, den wir in unserem alltäglichen Leben vorfinden, ist weich, weshalb wir computergenerierte Bilder mit weichen Schatten als sehr viel realistischer wahrnehmen. Nach einer Erklärung, was weiche Schatten sind, warum sie auftreten, und welche Schwierigkeiten sich bei ihrer Berechnung ergeben, werden aktuelle Algorithmen vorgestellt, die in der Lage sind, weiche Schatten in Echtzeit zu berechnen. Sie basieren stets auf einem der beiden bekanntesten Algorithmen für harte Schatten, shadow mapping oder shadow volumes, und wurden auf verschiedenste Arten und Weisen erweitert, um die Generierung von weichen Schatten zu ermöglichen. Dennoch ist es mit keinem der vorgestellten Methoden möglich, für beliebige Szenen physikalisch korrekte weiche Schatten in Echtzeit zu erzeugen: Sie sind entweder zu langsam, oder approximieren die Schatten nur. Wir stellen deshalb einen neuen Ansatz vor, der mithilfe von Temporal Coherence die Berechnung von physikalisch korrekten weichen Schatten ermöglicht: Durch die Generierung einer einzigen shadow map pro Frame, die jeweils von einer anderen, zufälligen Stelle der Flächenlichtquelle erzeugt wird, sowie der Verwendung eines sogenannten shadow buffers, der die bisherigen Schattenergebnisse speichert, ist es möglich, exakte weiche Schatten zu berechnen, und dabei überzeugende Bildwiederholraten zu erreichen.

Institut für (vor 2018) Gestaltungs- und WirkungsforschungE187

Arbeitsbereich (vor 2018) Multidisciplinary Design

Diplomarbeitsposter Klausner Robert

Robert Klausner

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Die technologische Entwicklung der letzen Jahre und Jahrzehnte ermöglicht die Speicherung und Analyse immer größerer Datenbestände. Neben den klassischen Methoden der Statistik und des Data Mining gewinnt die visuelle Exploration an Bedeutung, die die visuellen Fähigkeiten von Menschen bei dieser Aufgabe nutzt. Ein wichtiges Analysefeld sind massenhafte Daten mit Zeitbezügen, die sozialen Rhythmen folgen. Soziale Rhythmen wie z.B. die Woche sind Rahmenbedingungen und Ergebnis menschlichen Handelns. Diese Arbeit zeigt einen Weg und ein Werkzeug, Muster, Trends, Regelmäßigkeiten und Unregelmäßigkeiten im System derartiger zeitbezogener Daten zu visualisieren und damit besser fassbar zu machen und bedient sich dabei der Möglichkeiten einer Matrix-basierten Darstellung. Zur Überprüfung der Visualisierung und des Bedienkonzeptes wurde eine Benutzerstudie durchgeführt. Dabei wurden Experteninterviews mit der Methode der qualitativen Inhaltsanalyse ausgewertet. Aus den Ergebnissen wurden Handlungsempfehlungen für die weitere Entwicklung formuliert. Ein Beispiel dafür ist das Verlangen nach mehr Interaktivität bei den Zoom und Filter Operationen oder der Wunsch nach vordefinierten Farbsets.

Diplomarbeitsposter Maurer Herbert

Herbert Maurer

Wirtschaftsinformatik
Abstract:

RFID (Radio Frequency Identification) Tags sind Mikrochips, welche vermehrt in Alltagsanwendungen eingesetzt werden, etwa in Autoschlüsseln, bei Zugangskontrollsystemen oder im Bereich der elektronischen Tieridentifikation. Diese Ausarbeitung gibt einen Überblick über bereits existierende und potentielle zukünftige RFID Anwendungen (mit Hauptaugenmerk auf den biometrischen Reisepass und RFID-Geld) und zeigt auf, welche Risiken die RFID Technologie birgt, besonders in Hinblick auf Datenschutz und Sicherheit der Anwender. Relevante technische Literatur und veröffentlichte wissenschaftliche Ausarbeitungen bilden die Basis für diese vergleichende Literaturstudie. Die Arbeit zeigt, dass RFID für Konsumenten und Industrie durchaus von Nutzen sein kann, wobei es jedoch einige Sicherheitsbedrohungen gibt, dazu zählen Klonen, Manipulation, DoS-Attacken, Abhören der Kommunikation und Angriffe auf das Back End System, von denen kriminelle Elemente profitieren könnten, nachdem ungesicherte RFID Chips ohne Wissen des Besitzers ausgelesen werden könnten. Zusätzlich werden einige technische Lösungen für den effizienten Schutz der Privatsphäre bei RFID-Anwendungen vorgestellt, in Form von Authentifizierung, Verschlüsselung, Abschirmung, Blockierung, Zerstörung, „Clipped Tags“ und Sicherheitsmaßnahmen für NFC-Reader.

Diplomarbeitsposter Miljanovic Mirjana

Mirjana Miljanovic

Diplomstudium Informatik
Abstract:

An der Technischen Universität Wien wird ein höherer Anteil an Frauen angestrebt. Es wurde durch viele Forschungsprogramme versucht den Anteil zu erhöhen. Leider ist es heute immer noch der Fall, dass wenige Frauen an dieser Universität studieren. Im Rahmen dieser Arbeit wird untersucht, ob das Studium an der Technischen Universität durch den neuen Studienplan und die Gliederung in verschiedene Fachbereiche attraktiver geworden ist. Die aktuelle Lage im IT-Bereich wurde mittels qualitativer Methoden untersucht. Mögliche Ursachen für das so geringe Interesse von Frauen an technischen Studien und Berufen werden auch mithilfe dieser Methoden erforscht. Außerdem werden Vorschläge gemacht, wie die Lage verbessert werden könnte und wie das Interesse der Frauen geweckt werden könnte. Die praktische Umsetzung dieser Vorschläge an den technischen Universitäten und Hochschulen wird auch diskutiert. Es wird auch die aktuelle Lage der IT-Frauen an technischen Universitäten anhand ausgewählter Beispiele betrachtet, von denen sich die meisten am US-amerikanischen Vorbild orientieren. Es werden die Ursachen untersucht, die dazu geführt haben, dass so wenige Frauen Interesse an der Technik haben, wie z.B. Tradition und Rollenbilder von Mann und Frau, Bildungspolitik, etc.

Diplomarbeitsposter Treutler Tina

Tina Treutler

Masterstudium Medieninformatik
Abstract:

Museen sind überall auf der Welt verstreut zu finden: Angefangen beim kleinen Heimatmuseum eines winzigen Dorfes in den Bergen bis hin zu den großen renommierten Prunkbauten riesiger Metropolen. Das heute so wichtige Augenmerk auf die Weitergabe des Wissens über bedeutende Fundstücke und Kunstwerke der menschlichen Geschichte, war nicht von jeher eine der Hauptaufgaben eines Museums. Der Begriff >Multimedia< oder >Neue Medien< in den Museen muss vielerorts erst bekannt und attraktiv gemacht werden – sowohl den Besucherinnen/ Besuchern, als auch den Museumsverantwortlichen. In dieser Diplomarbeit werden all diese Thematiken behandelt. Es soll dargestellt werden, dass ein Museum nicht bloß Objekte platziert und der/dem BesucherIn sagt: >Hier, dies ist ein Original-Rembrandt<. Vielmehr ist das Vermitteln eines der vier wichtigsten Aufgabengebiete. Dafür gibt es unterschiedlichste Methoden, das gesammelte Wissen an die BesucherInnen weiterzugeben: von der schlichten Objektbeschriftung mit Name, Jahreszahl und Ort, bis hin zu komplexen Animationen mit Sound und Interaktion des Publikums. Ziel der Arbeit ist es, der Frage nachzugehen, welchen Vorteil diese neuen Vermittlungsformen gegenüber den althergebrachten haben und ob durch sie ein Mehrwert für die Museumskultur gezogen werden kann.

Arbeitsbereich (vor 2018) Human Computer Interaction

Diplomarbeitsposter Felkel Wolfgang

Wolfgang Felkel

Masterstudium Medieninformatik
Abstract:

C. G. Jung machte auf den sich wiederholenden, archetypischen Output aufmerksam, welcher sich wie ein roter Faden durch die Mythen, Religionen und Träume der Menschheitsgeschichte zieht. Auf dieser Beobachtung beruhen viele der teils umstrittenen Theorien seiner tiefenpsychologischen Schule, der analytischen Psychologie. Das Vokabular Jungs dient nun als gedanklicher Anstoß, um eine tiefenpsychologische Perspektive auf das moderne Computerspiel zu gewinnen. Zentrales Interesse ist das Potential als ein Katalysator der Individuation, dem lebenslangen Prozess der Selbstverwirklichung. So wird für das Computerspiel als ein projektiver Workshop der Psyche zur Konfrontation und Verarbeitung von psychischen Anliegen argumentiert. Dabei wird den fiktiven Charakteren der Gegner besondere Aufmerksamkeit geschenkt, da diese für die Personifikation von inneren Konflikten geradezu prädestiniert sind. Abschließend wird die erarbeitete Theorie in Form eines prototypischen Computerspiels thematisiert, welches ausgewählte psychologische Konzepte vermitteln und möglichst erfahrbar machen soll.

Diplomarbeitsposter Grill Thomas

Thomas Grill

Individuelles Masterstudium - Interaktive elektronische Instrumente
Abstract:

Elektronische Musikinstrumente bilden eine mittlerweile weit verbreitete Ergänzung zur Vielfalt an traditionellen akustischen Instrumenten. Sie eröffnen vielfältige Möglichkeiten zur Gestaltung von Klang und Struktur innerhalb der Bereiche von sowohl Komposition als auch Live-Performance. Die vorherrschende Abhängigkeit von komplexen Technologien und computerbasierter Hardware führt jedoch zu einer Abschottung der interessanten künstlerischen Potentiale hinter abstrakten Interfaces und Steuerungskonzepten, die kaum mit künstlerischem Denken und Agieren vereinbar sind. Diese Arbeit stellt grundlegende Überlegungen und technische Entwicklungen vor, um elektronische Instrumente genau so intuitiv und expressiv wie ihre akustischen Vorfahren zu machen und untersucht einen neuartigen Zugang zur Transformation von musikalischen Gesten in erzeugten Klang. Eine solche Transformation kann auf zwei Prinzipien basieren: Erstens, der Idee der Energiefortpflanzung und -transformation durch ein Instrument - von gestischen Abläufen zu klanglichen Entwicklungen - und zweitens, der Verankerung des Transformationsprozesses in einer Repräsentation bestehend aus perzeptiv und musikalisch sinnvollen Strukturelementen. Das vorgestellte Konzept konzentriert den Fokus musikalischer Aktion auf durch den Benutzer zusammenstellbare Repertoires und nimmt eine Projektion dieses Datenmaterials auf zwei Dimensionen vor. Die Fundierung des gesamten Transformationsprozesses von Gesten zu Klang auf einer solchen kartenartigen Repräsentation ermöglicht unmittelbarere Kontrolle von Transformationsstrategien und intuitiveres visuelles Feedback, da zweidimensionale Strukturen einfach auf dem Bildschirm zu veranschaulichen sind. Diese Arbeit untersucht sowohl die theoretischen Grundlagen wie auch technologische Voraussetzungen. Als proof-of-concept wird die Implementierung eines neuartigen Software-basierten Echtzeit-Instruments unter Verwendung eines solchen zweidimensionalen Gesten-Mappings pr

Diplomarbeitsposter Gröschl Bettina Elisabeth

Bettina Elisabeth Gröschl

Masterstudium Medieninformatik
Abstract:

Diese Diplomarbeit befasst sich mit Design als essentiellem Mittel für die Erstellung von qualitativ hochwertigen Produkten. Dabei wird die in der Software-Entwicklung gängige Auffassung von Design als Ingenieurdisziplin mithilfe der Gegenüberstellung zur archetypischen Designaktivität Sketching als unrealistisch eingestuft und als eine Ursache für die mangelhafte Qualität von softwarebasierten Produkten identifiziert. Als Alternative wird ein Prozess nach dem Vorbild anderer Disziplinen, wie beispielsweise der Architektur, vorgeschlagen, in dem Design und Konstruktion zwei eigenständige - allerdings nicht vollkommen voneinander getrennte - Komponenten darstellen. In diesem Kontext werden die Eigenschaften von gutem Design diskutiert. Als solche werden die Dimensionen Brauchbarkeit, Usability und Attraktivität erörtert. Nach der Diskussion der theoretischen Grundlagen wird das im Rahmen dieser Diplomarbeit durchgeführte Projekt “Patientenviewer” beschrieben, im Laufe dessen für die Firma T-Systems Software entworfen wurde, deren Funktion in der Optimierung der Interaktion mit medizinischen Patientendaten besteht. Das Resultat der Designarbeit, die Entwicklung des Projektes und damit einhergehend die Hintergründe zu Designentscheidungen werden skizziert.

Diplomarbeitsposter Jembrih Mario

Mario Jembrih

Masterstudium Informatikmanagement
Abstract:

Lernen hängt mit Wissen zusammen. Forschung hängt mit Wissen zusammen. Internet erweitert die traditionellen, statischen Wissensmodellierungs-systeme um die Dimension der Virtualität und Distribution, und führt somit ganz neue Bedingungen für Wissenskreation ein. Was sind die Implikationen, die sich für Wissenskreation und Wissenstransfer durch die Nutzung des Internet ergeben? Während immer mehr und mehr Kooperations-, e-learning- und Social-networking Systeme im Internet entstehen, wird es wichtig eine Erklärung von zugrundeliegenden Phänomenen zu haben, um ein besseres Verständnis von wissenserzeugenden Systemen zu haben. Diese Arbeit stellt Internet als „knowledge space“ dar, in dem Wissen erzeugt, verteilt und transferiert wird. Pierre Lévy hat die theoretischen Grundlagen erstellt, welche das Internet als “knowledge space” erklären. Seine Ideen werden diskutiert und mit der Theorie der Wissenserzeugung von Nonaka und Takeuchi verglichen. Die kognitiven Grundlagen von implizitem und explizitem Wissen werden erklärt, und die Bedeutung von implizitem Wissen wird hervorgehoben. Sprache und Schrift werden als klassische „Wissensmodellierungssysteme“ dargestellt, und ihr Unterschied zum dynamischen und virtuellen Internet herausgearbeitet; die kognitiven und gesellschaftlichen Implikationen dieser Systeme werden analysiert. Das SECI-Modell der Wissenskreation wird auf das „knowledge space“ Internet angewendet. Es stellt sich heraus, dass internetbasierte Systeme (z.B. e-learning Platformen), welche die Bindung gemeinsamer mentaler Modellen und implizitem Wissen ermöglichen, d.h., die erste Phase aus dem SECI-Modell implementieren, eine bessere Unterstützung für Wissenskreation im Internet ermöglichen.

Diplomarbeitsposter Misar Martina

Martina Misar

Masterstudium Medieninformatik
Abstract:

Die Diplomarbeit beleuchtet frühe Phasen des Designprozesses von Videospielen und setzt sich hierbei mit der Frage "Wie und wo beginnt man, wenn man ein neues Spiel entwirft?" auseinander. Im Zuge dessen werden Design-Methoden und Tools betrachtet die in frühen Designphasen eine Rolle spielen. Neben Literaturrecherche stellt die Befragung von Personen aus der Praxis (Game Designer, Game Entwickler) einen zentralen Bestandteil der Arbeit dar, da in der Praxis oft individuelle Ansätze, Inspirationsquellen, Designmethoden und Tools genutzt werden. Das Generieren von Ideen und Konzepten ist ein aktiver kreativer Prozess der auf Erfahrung, (technischem) Know-How und theoretischem Wissen basiert. Hierfür existiert eine Vielzahl an Ansätzen, Methoden, Techniken und Werkzeugen auf die zurückgegriffen werden kann. Ob diese für den Prozess relevant und geeignet sind, ist von Faktoren wie Größe und Zusammensetzung des Entwicklungsteams, dem Budget, dem Genre und Setting des Spiels, der Hardware (Eingabegeräte, Kapazität, ...) sowie vom Entwicklungs-Fortschritt des Prozesses abhängig. Die Arbeit konzentriert sich auf die Anwendbarkeit von Methoden und Tools in Bezug auf Game Design. Dazu werden deren Verwendbarkeit, Schwerpunkte, Stärken und Schwächen in Verbindung mit dem noch verhältnisweise neuem Medium herausgearbeitet.

Diplomarbeitsposter Peloschek Robert

Robert Peloschek

Masterstudium Informatikmanagement
Abstract:

In den letzten Jahren hat sich, gleichsam wie das Internet in seiner Gesamtheit gewaltige Änderungen durchlaufen hat, die Art, wie sich Lehrveranstaltungswebseiten präsentieren, nachhaltig geändert. Viele klassische rein HTML-basierende Webseiten wurden mit mehr oder weniger Erfolg auf das moderne Blogformat umgestellt. Lehrveranstaltungsblogs ermöglichen dabei in Ansätzen etwas, das bisher in der Präsenzlehre nahezu ausgeschlossen war: Eine angeregte Diskussion über Lehrveranstaltungsinhalte, eine Vielzahl von Meinungen, ein Aushandeln des Wissens. Doch befinden wir uns tatsächlich auf dem Weg zu einer neuen Diskussionskultur? Und können die an den Universitäten eingesetzten Blogs die hoch gesteckten Erwartungen auch in der Praxis erfüllen? Ziel der Arbeit ist es, diese Fragen sowohl anhand theoretischer Überlegungen, als auch mittels eingehender empirischer Untersuchungen (Analysen, Umfragen, Interviews) ausgewählter Blogs an der TU Wien zu beantworten. Ergebnis der Anstrengungen ist schließlich eine klare Antwort auf die Frage, ob Lehrveranstaltungsblogs tatsächlich eine Bereicherung für die universitäre Präsenzlehre sind, oder ob es sich bei der derzeitigen Blogeuphorie nur um einen kurzlebigen modischen Trend handelt.

Diplomarbeitsposter Pfeffer Jürgen

Jürgen Pfeffer

Masterstudium Informatikmanagement
Abstract:

Die zentrale Fragestellung der vorliegenden Arbeit ist der mögliche Einsatz von Simulationsumgebungen im didaktischen Kontext. Als Simulationsumgebungen werden dabei inhaltsneutrale, computerbasierte Tools verstanden, in denen kom-plexe, reale Systeme konstruiert und simuliert werden können. Durch den Vorgang der Nachbildung eines mentalen Modells in eine mathematische Struktur und ihrer Simulation in Simulationsumgebungen entsteht Erkenntnis über das zugrundeliegende reale System. Der theoretische Teil der Arbeit gibt einerseits eine Einführung in das computerunterstützte Lernen, wobei den verschiedenen Lerntheorien ein wesentlicher Teil gewidmet ist. Andererseits sollen eine Einfüh-rung in die Simulation als wissenschaftliche Methode sowie eine Vorstellung unterschiedlicher Simulationsparadigmen (ereignisorientierte Simulationen, Sys-tem Dynamics, Multiagentensimulation) gegeben werden. Der praktische Teil der Arbeit untersucht konkrete Simulationsumgebungen auf ihre Tauglichkeit als didaktisches Instrument. In der abschließenden Diskussion finden sich Anmerkun-gen zum computerbasiertem Lernen sowie Hinweise für Lehrende, die den Einsatz von Simulationsumgebungen im Unterricht in Erwägung ziehen.

Diplomarbeitsposter Rakoczi Gergely

Gergely Rakoczi

Masterstudium Medieninformatik
Abstract:

Der Themenschwerpunkt dieser Diplomarbeit ist die Untersuchung des Benutzer- Verhaltens beim computerunterstützten Lernen. Die im Rahmen der Arbeit durchgeführte Studie basiert auf dem weit verbreiteten konstruktivistischen ELearning- System Moodle, welches Lernende dazu bewegt aus dem situativen Kontext durch aktive Konstruktion Wissen zu erwerben. Die Möglichkeit des Lerners frei die Reihenfolge der Lehrinhalte auszuwählen, ermöglicht neue didaktische Perspektiven sowie methodische Lernprozesse, welche im Fokus dieser Untersuchung stehen. Die Erforschung erfolgt mittels der wissenschaftlichen Methode der Blickregistrierung (Eye Tracking1) mit deren Hilfe Augenbewegungen sowie Navigationsstrategien der Benutzer erfasst werden, um in weiterer Folge Aussagen in Hinblick auf zentrale Fragestellungen treffen zu können. Inhaltliche Schwerpunkte dieser Arbeit sind die Untersuchung der Aufmerksamkeitssteuerung, die Bestimmung der Reihenfolge visuell erfasster Elemente, die Auswirkung unterschiedlicher Medientypen auf den Lernprozess, der Einfluss von Komplexität, Involvement, hedonischer / pragmatischer Qualität bzw. internalen / externalen Lernfaktoren, sowie die Wirkung ausgewählter Wahrnehmungsgesetze auf das Benutzer-Verhalten beim E-Learning. Um profunde Aussagen zum Themenbereich ableiten zu können, werden zusätzlich zu den soeben aufgezählten Untersuchungsfaktoren Usability-Aspekte des Lernsystems Moodle ausgewertet, sowie qualitative Interviews durchgeführt, aus denen weitere Rückschlüsse auf die Navigation bzw. Bedienung der Lernplattform gezogen werden.

Diplomarbeitsposter Spindler Oliver

Oliver Spindler

Masterstudium Medieninformatik
Abstract:

Die Bedeutung, die wir Informationseinheiten wie Wörtern, Bildern, Musik und Filmen zuschreiben, liegt nicht nur in ihrem rationalen Wert, sondern genauso in den Gefühlen, die diese Dinge in uns erwecken. Interaktive Systeme beschränken sich bislang vor allem auf die Beschreibung des eigentlichen Inhalts, die Denotation, während die Emotionen, die wir mit Informationseinheiten assoziieren, ihre Konnotation, meist nicht beachtet wird. Die Berücksichtigung von emotionaler Bedeutung würde neue Möglichkeiten eröffnen, um Inhalte zu strukturieren und zu entdecken. Benutzer könnten Inhalte finden, die ihrer Stimmung entsprechen, unabhängig vom Medientypen. Die vorliegende Arbeit untersucht verschiedene Möglichkeiten, wie emotionale Bedeutung in interaktiven Systemen repräsentiert werden kann. Vorgestellte Lösungsansätze sind unter anderem der Einsatz von Sprache, Farben und Gesichtsausdrücken. Die theoretische Basis für diese Untersuchung bilden Arbeiten aus den Disziplinen Semiologie, experimentelle Psychologie, Kunsttheorie und Interaktionsdesign. Es wurde ein comichaftes Gesichtsmodell entwickelt, das Emotionen durch Gesichtsausdrücke visualisiert. Die resultierende Softwarekomponente kann in Webbrowsern eingesetzt werden und folgt dem Verhalten von echten Gesichtern, indem Gesichtsmuskeln simuliert werden. Sechs Grundemotionen können gemischt werden, um spezifische und subtile emotionale Zustände auszudrücken.

Diplomarbeitsposter Wieser Dietmar

Dietmar Wieser

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

E-Learning sowie Informelles Lernen gewinnen in der heutigen Hochschulausbildung zunehmend an Bedeutung. Doch nun stellt sich die Frage, wie denn eigentlich die Studenten diesem neuen Angebot der Wissensvermittlung gegenüberstehen? Diese Diplomarbeit versucht die Vor –und Nachteile dieser beiden in den Trend kommenden Bildungsmethoden zu untersuchen und die Einstellungen der Studenten darüber zu erforschen. Zu allererst werden im theoretischen Teil die Begriffe E-Learning und Informelles Lernen genauestens erklärt und erörtert, danach werden die Meinungen und Einstellungen der Studenten in Befragungen eingeholt. Um auch mögliche Unterschiede von Informatikern (Die ja vermutlich mit Computern besser vertraut sind) und Nicht-Informatikern aufzudecken, werden zwei verschiedene Studentengruppen befragt.

Institut für (vor 2018) Softwaretechnik und Interaktive SystemeE188

Arbeitsbereich (vor 2018) Information & Software Engineering

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Omid Faseli, Christian Graffer, Alexander Kern, Hannes Kieberger, Wolfgang Michael Schenk, Ulrich Schregenberger, Julio Cesar Vergara Heinrroth, Seung-Bin Yim
Diplomarbeitsposter Alexandrow Paul

Paul Alexandrow

Wirtschaftsinformatik
Abstract:

Die Integration heterogener Systeme stellt eine große Herausforderung dar. Event-basierte Architekturen, die die Events zwischen solchen Systemen sammeln und umwandeln können, sind ein vielversprechender Ansatz dazu. Analysten müssen große Mengen von Events aus solchen Systemen verarbeiten und relevante Muster darin erkennen können. Es gibt bereits Tools dafür, wie das Open Source Projekt Naiad, die Events aufgrund ihrer Attribute korrelieren und aggregieren können. Allerdings beschränkt sich die Korrelation in den meisten Fällen auf das Finden von identen Attributen, eine semantische Verarbeitung steht noch aus. Letztere wäre aber ein Schlüsselfaktor um Geschäftsprozesse mit der Fülle an Events aus heterogenen und dynamischen IT Systemen sinnvoll zu verbinden. Letztlich muss jeder praktikable Lösungsansatz auch entsprechend skalierbar sein, um eine gleichbleibend hohe Performance gewährleisten zu können. Der Kern dieser Arbeit befasst sich mit der Frage, ob und wie eine konventionelle Rule Engine gemeinsam mit einem Tool zur Korrelation von Events genutzt werden kann, um die skalierbare und semantische Verarbeitung von Events zu ermöglichen. Zuerst soll Naiad Rules, ein allgemeines Konzept für die regelbasierte, semantische Korrelation von Events vorgestellt werden. Ziele dieses Ansatzes sind die Austauschbarkeit der verwendeten Rule Engine, die Möglichkeit einer GUI gestützten Bedienung, maximale Skalierbarkeit und die Möglichkeit der Verteilung auf mehrere physikalische Systeme. Dahingehende Probleme und deren Lösungen sollen ebenfalls präsentiert werden. Danach soll gezeigt werden, wie gängige Patterns aus dem Bereich des Complex Event Processing mit diesem Konzept umgesetzt werden können, bzw. wo die Grenzen davon liegen. Naiad, ein Tool zur Korrelation von Events, wird mithilfe einer Rule Engine erweitert, um das Konzept von Naiad Rules exemplarisch zu realisieren. Dabei soll das in Naiad implementierte SEDA (staged event-driven architecture) Design weiterge

Diplomarbeitsposter Andrianova Ekaterina

Ekaterina Andrianova

Masterstudium DDP Computational Logic (Erasmus-Mundus)
Abstract:

Ein Ziel dieser Diplomarbeit ist die Entwicklung eines Vorgehensmodells für die Evaluierung von Geschäftsprozessmanagementsystemen und die Aufstellung von Anforderungen an solche Systeme bezüglich unterschiedlicher Kategorien. Der Lebenszyklus von Geschäftsprozessen, verschiedene Werte des Geschäftsprozessmanagements, Prozesstypen, Anforderungen an die Infrastruktur und Fehlerquellen des Prozessmanagements werden untersucht. Ein weiteres Ziel der Diplomarbeit ist die Analyse eines zustands-basierten Ansatzes zum Geschäftsprozessmanagement und eines Lernalgorithmus, der auf Inhalten von Dokumenten basiert. Die ISIS Papyrus Plattform wurde anhand des entwickelten Vorgehensmodell evaluiert und zum Abschluss wurden Verbesserungen des Systems empfohlen.

Diplomarbeitsposter Arends Max

Max Arends

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Diplomarbeit beschreibt die aktuellen Gesetze und Technologien zum Thema Überwachung, welche als Antwort auf die Gefahr des Terrorismus nach den Anschlägen des 11. September 2001, in der Europäischen Union und den USA erlassen und entwickelt wurden. Ziel der Arbeit ist es, die Möglichkeiten der Terrorismusbekämpfung den Gefahren des Datenschutzes gegenüber zustellen. Der USA PATRIOT Act, der EU Plan of Action on Combating Terrorism sowie die EU Counter Terrorism Stategy werden vorgestellt und deren Auswirkungen auf die Überwachung und den Datenschutz diskutiert. Data Retention (Vorratsdatenspeicherung) und Lawful Interception (das gesetzmäßige Abhören), die damit verbundenen Gesetzgebungen in der EU und den USA, sowie deren Funktionalität wird beschrieben und diskutiert. Onlineüberwachung, die derzeitige aktuelle Diskussion zu deren Gesetzgebung in Deutschland und den USA, sowie die Funktionalität solcher Remote Forensic Software wird erläutert und diskutiert. Data Mining und Datenanalyse, deren Funktionsweise und Möglichkeit zur Terrorismusbekämpfung sowie damit einhergehende Datenschutzbedenken werden beschrieben. Die derzeitige Situation von Zensur im Internet wird vorgestellt, Zensurmechanismen und -techniken beschrieben und eine Einteilung nach Ländern erstellt.

Diplomarbeitsposter Astl Christian

Christian Astl

Masterstudium Business Informatics
Abstract:

Systemintegration versucht durch schnelles Zusammenfügen von vorhandenen Unternehmensapplikationen in ein neues großes aus Systemen bestehendes System, einen Mehrwert zu erzielen. Jedoch beinhaltet die Integration von komplexen Systemen zahlreiche Herausforderungen, wie z.B. unterschiedliche Systemarchitekturen oder unterschiedliche Nachrichtenprotokolle. Ein erfolgversprechender Ansatz um eine große Anzahl heterogener Systeme zu integrieren, ist der System Wide Information Sharing (SWIS) Ansatz, der im Rahmen eines wissenschaftlichen Projekts an der Technischen Universität Wien in Kooperation mit Frequentis AG entwickelt wurde. SWIS verwendet einen auf Nachrichten basierenden Ansatz und unterstützt beim Aufbau eines Netzwerks für einen sicherheitskritischen Datenaustausch zwischen Datenanbieter und Datenverbraucher in mehreren Organisationen und mit unterschiedlichen Anforderungen und Fähigkeiten. In SWIS werden Ontologien für die Informationsabbildung verwendet; diese enthalten alle relevanten Daten und Informationen über die zu integrierenden Applikationen und Systeme. Der praktische Teil dieser Diplomarbeit ist die Realisierung eines Tools zur Unterstützung des beschriebenen SWIS Ansatzes, genauer gesagt eine Benutzerschnittstelle für den Modell Transformations Algorithmus (MTA). Das Visualisierungskonzept für den SWIS Ansatz zeigt die entstehenden Eigenschaften des Integrationssystems. Die Visualisierung sollte folgende Erleichterungen bringen: a) Produktverbesserung durch die visuelle Rückmeldung und b) Prozessverbesserung durch verbesserte Tool-Unterstützung und Qualitätssicherung. Der Hauptfokus der praktischen Arbeit liegt in der Erstellung einer sowohl für Experten als auch für Nichtexperten leicht zu handhabenden Benutzeroberfläche. Ein Hauptkriterium für eine gute Benutzeroberfläche, liegt in der effektiveren und effizienteren Abarbeitung der Prozessschritte im Vergleich zur manuellen Abarbeitung.

Diplomarbeitsposter Baumgärtner Thomas Felix

Thomas Felix Baumgärtner

Masterstudium Informatikmanagement
Abstract:

In dieser Magisterarbeit werden die theoretische Grundlagen des E-Tourismus, Reiseentscheidungsprozesses, Entscheidungsunterstützungssysteme und deren Verbindung zu den Hotelbewertungsportalen recherchiert und beleuchtet. Darauf aufbauend wird ein Kriterienkatalog entwickelt der die Merkmale solcher Portale beinhaltet und in Kategorien unterteilt. Dabei handelt es sich exklusiv um Portale die Konsumentenmeinungen zu Hotels im deutschsprachigen Raum offerieren. Dieser Kriterienkatalogs mit der Gliederung in Qualität, Funktionalität und Geschäftsmodell der Hotelbewertungsportale wird im Zuge einer Webanalyse bearbeitet. Darauf aufbauend wird ein Best-Practice Ranking entwickelt, dass die Marktführer im Bereich der Konsumentenbeurteilungen von Hotels aufzeigen soll. In weiterer Folge werden die von Kunden generierten Hotelbeurteilungen gesammelt. Dieser Prozess wird auf drei Best-Practice Portale angewandt und nutzt Methoden des Webmining und der Datenextraktion. Abschließend werden diese Daten in einer empirischen Studie beleuchtet. Dabei werden die Fragestellungen: „Hotelbewertungen haben einen stärkeren Ausschlag in die positive als in die negative Richtung“, „Die kundengenerierten Hotelbeurteilungsdaten unterscheiden sich auf den unterschiedlichen Hotelbewertungsportalen“, „Die kundengenerierten Hotelbeurteilungsdaten unterscheiden sich im Vergleich zum formalen Beurteilungskriterium der Sterne“, „ Die kundengenerierten Hotelbeurteilungsdaten können zur Segmentierung der Hotels nach Kundenzufriedenheit herangezogen werden“, „Das vertrauensbezogene Merkmal „hilfreich“ hat stärkere Auswirkungen auf niedrige kundengenerierten Hotelbeurteilungen“ Abschließend folgen eine Schlussbemerkung und ein Fazit.

Diplomarbeitsposter Bedi Amouzou

Amouzou Bedi

Masterstudium Business Informatics
Abstract:

Die traditionellen E-Mails Clients bieten keine gute Weiterleitungssysteme für den schnellen Versand von E-Mails an geeignete Mitarbeiter. Dabei helfen kaum Leistungsfähige Elemente wie vorformulierte Textbausteine, Zugriff auf andere Systeme in einem einzigen Fenster und die leicht verständliche, konfigurierbare Benutzeroberfläche, damit die Mitarbeiter schnelle und präzise Antworten auf Kunden-E-Mails reagieren. Auch die Suche nach bestimmten E-Mails in dem Mail-System bleibt manchmal erfolglos. Ideal wären schnell ein paar Begriffe eingegeben und schon werden die besten Suchtreffer angezeigt. Wir finden, dass es gut wäre, wenn die Anwender, Anwenderinnen ein einfaches E-Mail Programm haben, mit dem sie leicht arbeiten können. Diese Diplomarbeit beschreibt, wie die Visionen des semantischen Webs übertragen können, um ein einfaches E-Mail-Programm für die Geschäfts-Mails Verwaltung zu realisieren. Die semantischen Web Technologien öffnen die Tür zur Verknüpfung von unterschiedlichen Programmen und verschiedenen Datenformaten. Dabei wollen wir die semantischen Web Technologien Anwendungen nützen. Wir stellen hier die Vision einer semantischen E-Mail Client Applikation für die Verwaltung von E-Mail-Nachrichten vor.

Diplomarbeitsposter Bedi Amouzou

Amouzou Bedi

Masterstudium Informatikmanagement
Abstract:

Im Unterricht spielen E-Mails eine große Rolle und es sollen wichtige Aspekte des Mailschreibens mit den Kindern erarbeitet werden. Alle E-Mail Klient Programme unterstützen die Verwaltung von E-Mail Nachrichten mit hierarchischen Ordnerstrukturen. Die gesendeten E-Mails werden in einem Ordner für gesendete E-Mails gespeichert und die erhaltenen E-Mails werden in einem Ordner für empfangene E-Mails gespeichert. Das Attachment wird mit einem entsprechenden Programm geöffnet. Programme wie Outlook und Thunderbird erscheinen mir für ein einfaches E-Mail-Programm für 10 jährige Kinder als etwas zu kompliziert. Diese Magisterarbeit beschreibt, wie die Visionen des semantischen Webs übertragen können, um ein einfaches E-Mail-Programm für Kinder zu realisieren. Die semantischen Web Technologien öffnen die Tür zur Verknüpfung von unterschiedlichen Programmen und verschiedenen Datenformaten. Wir stellen hier die Idee einer semantischen E-Mail Klient Applikation als ein einfaches E-Mail-Programm für Kinder vor.

Diplomarbeitsposter Eghdamian Ali

Ali Eghdamian

Wirtschaftsinformatik
Abstract:

Während in den frühen Jahren des Software Engineerings der Mensch einen wenig beachteten Aspekt darstellte, zählt der Forschungsbereich mittlerweile zu einem bedeutenden Teilgebiet dieser jungen Ingenieursdisziplin. Allerdings bleiben kulturelle Einflüsse im Software-Entwicklungsprozess weitgehend unberücksichtigt. Die inzwischen breite Fächerung der Anforderungen an die Software und die kulturelle Diversität aller beteiligten Personen stellen das Software-Projektmanagement vor neue Herausforderungen. Die Diplomarbeit beschäftigt sich mit dem Einfluss der Kultur auf Software-Entwicklungsprojekte. Daher werden ausgehend von einer Literaturrecherche die gängigsten Kulturkonzepte analysiert und mit Hilfe eines fiktiven Fallbeispiels im Kontext von Software-Entwicklungsprojekten angewendet. Durch die Untersuchung der verschiedenen Tätigkeiten des Software-Projektmanagements soll die Bedeutung von Kultur im Software Engineering verdeutlicht werden. Ein weiteres Ziel stellt die Sensibilisierung für diese Thematik und die Vermittlung des Verständnisses für „kulturelle Faktoren“ dar. Diese Arbeit gibt daher einen Überblick über den Einfluss der Kulturformen in Bezug auf die verschiedenen Aufgaben in einem Software-Entwicklungsprojekt. Dadurch wird demonstriert auf welche Weise Kultur auf die Tätigkeiten des Projekts einwirkt, und weshalb eine Durchführung der Arbeitsschritte ohne entsprechende Anpassung an den kulturellen Kontext unvorhersehbare Folgen für das Software-Projektmanagement haben kann. Die Ergebnisse der Diplomarbeit zeigen, dass für die Durchführung von Software-Entwicklungsprojekten ein umfassendes Verständnis von Kultur unerlässlich ist. Mit den Ausführungen in der Arbeit wird verdeutlicht, dass Kultur einen wesentlichen Einfluss auf die Software-Entwicklung ausübt und daher eine stärkere Berücksichtigung dieser im Entwicklungsprozess erforderlich ist.

Diplomarbeitsposter Froschauer Josef

Josef Froschauer

Masterstudium Informatikmanagement
Abstract:

Diese Diplomarbeit befasst sich mit dem Thema Web 2.0 und den damit einhergehenden neuen Möglichkeiten der Wissensvermittlung. Ausgehend von allgemeinen Aspekten und Eigenschaften des Internets werden Web 2.0 Applikationen auf ihre technischen, sozialen und vor allem didaktischen Möglichkeiten untersucht. Der Rolle des Users als Produzent von Inhalten in Weblogs oder Wikis wird dabei besondere Bedeutung zugesprochen. Als praktisches Beispiel dient die virtuelle 3D-Plattform "Research Exhibition and Ex- perience Landscape", die im Rahmen dieser Diplomarbeit entstanden ist und ein Teilbe- reich des FWF Projektes L363 ist. Diese interaktive Umgebung für Konsumenten und Anbietern aus dem Bereich des e-Tourismus bietet den BesucherInnen die Möglichkeit, Informationen über das Projekt zu sammeln und aktiv am Entstehungsprozess teilzu- nehmen. Im Folgenden Kapitel werden allgemein die Möglichkeiten virtueller Museen behandelt und welchen Einfluss diese auf den klassischen Museumsbetrieb haben. An- hand vier verschiedener Beispiele aus der 3D Welt Second Life sollen Gemeinsamkeiten und Unterschiede in der Vermittlung von Wissen in einer virtuellen Umgebung ausgear- beitet und verglichen werden.

Diplomarbeitsposter Jüptner Bernd

Bernd Jüptner

Masterstudium Informatikmanagement
Abstract:

Historisch gesehen reichen die Wurzeln von Weblogs bis in die Mitte der 90er Jahre zurück. Der Begriff ?Weblog? (Wortkreuzung aus den englischen Wörtern ?World Wide Web? sowie ?Log?) wurde im Jahr 1997 durch Jørn Barger geprägt. Die ersten Weblogs tauchten in Form von Online-Tagebüchern im Internet auf und seit Ende der 90er Jahre zeichnete sich bereits ein rasantes Wachstum in der Anzahl an Weblogs (eine exakte Zahl zu definieren ist aufgrund von Messproblemen beziehungsweise Abgrenzungsproblemen relativ schwierig) ab.Aufgrund der vielen sozialen Netzwerke (beispielsweise zur Selbstdarstellung sowie zur Identitätskonstruktion der Weblog Autoren im Teenager Alter) die durch das Bloggen entstehen können und der Verschiebungen im gesellschaftlichen Öffentlichkeitsbereich beschäftigt sich die vorliegende Arbeit im ersten Teil besonders intensiv mit sogenannten Analysemethoden für Weblogs. Dem Leser soll ein fundierter und weitreichender Überblick über die ausgewählten Analysemodelle gegeben werden. Darüber hinaus soll die Differenzierung und die Abgrenzung der verschiedenen, heutzutage existierenden Analyseansätze herausgearbeitet sowie transportiert werden. Im zweiten und gleichzeitig praktischen Teil der Arbeit wird ein Prototyp einer Weblog-Suchmaschine entwickelt. Diese Suchmaschine soll es dem User erleichtern gezielt nach einem bestimmten Thema zu suchen und eine qualifizierte Auswahl an Blogeinträgen zu dem gesuchten Thema anhand eines definierten Bewertungsschemas zu bekommen.Aus diesen beiden Teilen der Arbeit wird ihre Forschungsfrage folgendermaßen formuliert: In wie weit lässt sich ein Bewertungsschema als Folge eines Suchalgorithmus entwickeln, um Blogeinträge anhand eines Suchbegriffes in einer reliablen quantifizierten und vor allem qualifizierten Form im Rahmen bestehender Analysemethoden darzustellen?

Diplomarbeitsposter Karl Hans-Dieter

Hans-Dieter Karl

Wirtschaftsinformatik
Abstract:

Serviceorientierte Architekturen finden immer mehr Einzug in öffentliche Verwaltungen. Der Einsatz solcher Architekturen bietet großes Potential für schlankere und schnellere Verwaltungsabläufe sowie für Kosteneinsparungen. Nichtfunktionale Anforderungen in Form von QoS-Kriterien haben in diesem Umfeld einen großen Einfluss auf Akzeptanz und Wirtschaftlichkeit solcher Lösungen. Die Analyse und Beurteilung dieser Faktoren bedingt eine Testumgebung, in welcher die Interaktion eines Geschäftsprozesses mit den beteiligten Services unter kontrollierbaren Testbedingungen beeinflusst und untersucht werden kann. Durch Einsatz eines Simulationsframeworks mit weitreichender Logging-Funktionalität zur Erzeugung echter Webservices mit definierbaren Qualitätsmängel basierend auf einer offenen XML-Spezifikationssprache kann das Verhalten eines Prozesses beim Auftreten von Fehlern und Problemen sowohl funktionaler als auch nichtfunktionaler Art tiefgreifend analysiert werden. In dieser Arbeit wird ein solches Framework vorgestellt und anschließend sein möglicher Einsatz im öffentlichen Bereich untersucht.

Diplomarbeitsposter Mauer Anton

Anton Mauer

Wirtschaftsinformatik
Abstract:

Im Bereich der modernen Softwareentwicklung sind sowohl Projekt- und Qualitäts-Manager, als auch Führungskräfte bestrebt, systematische Requirements Engineering Prozesse einzuführen, um die Qualität der entwickelten Software zu verbessern und Entwicklung schneller, günstiger und effektiver zu machen. Auf diesem Gebiet gibt es einerseits zahlreiche Publikationen, die den Bedarf nach einem systematischen RE-Prozess darlegen, dessen Phasen aber nur auf höchster Ebene definieren, andererseits ist Literatur über einzelne Methoden und Konzepte verfügbar, die aber nur Teilaspekte des RE abdecken (wie Anforderungserhebung und Nachverfolgbarkeit). Erkenntnisse über die Einführung eines umfassenden RE-Prozesses in einer Entwicklungsabteilung, der beide Aspekte abdeckt, fehlen bislang. Um diese Lücke zu schließen, evaluiert diese Arbeit, welche Bestandteile, Konzepte und Methoden für eine umfassende Prozessbeschreibung notwendig sind, und wie solch ein Prozess innerhalb einer Organisation definiert und umgesetzt werden kann. Dazu wird der RE@IBS-Ansatz vorgestellt, der in 5 Schritten beschreibt, wie unter Berücksichtigung von in der wissenschaftlichen Literatur verfügbaren Methoden und Konzepten, der Dokumentation gelebter Praktiken und der Anforderungen involvierter Interessensgruppen des Unternehmens die formale Definition dieses Prozesses und anschließende Einführung unterstützt durch ein Tool möglich ist. Im Rahmen einer Fallstudie bei Siemens Österreich wurde ein abteilungsweiter Tool-unterstützter Requirements Engineering Prozess, bestehend aus übergeordneten Phasen und detaillierten Aktivitätsbeschreibungen, Objekten, Attributen und einem Traceability-Modell, definiert und umgesetzt. Gewonnene Erkenntnisse füllen die Lücke und können als Leitfaden für zukünftige Projekte in diesem Bereich dienen. Ein formell definierter, umfassender RE-Prozess, unterstützt durch ein entsprechendes Tool, trägt maßgeblich zu besserer Software, kürzeren Entwicklungszeiten und gesteigerte

Diplomarbeitsposter Mulazzani Martin

Martin Mulazzani

Individuelles Masterstudium - Computer- und Datensicherheit
Abstract:

Diese Arbeit befasst sich mit dem Thema wie ein Anonymisierungsdienst im Internet überwacht werden kann, ohne dabei die Anonymität der Nutzer zu gefährden. Im speziellen geht es um das Überwachen des TOR Netzwerkes, “The Onion Router”. TOR ist ein Anonymisierungsdienst der die IP Adresse der Benutzer verschleiert. Geschätzte Zehntausende Benutzer verwenden es pro Tag. Die zugrunde liegende und benötigte Infrastruktur wird von Freiwilligen betrieben, wobei mehr als 1.000 TOR Knoten ständig online sind. Diese sind über die ganze Welt verteilt. Es wurde eine Überwachung des TOR Netzwerkes implementiert, mit dem Ziel Angriffe leichter erkennbar zu machen und den Benutzern ein Feedback über den aktuellen Status des TOR Netzwerkes zu geben. Diese Überwachung kann in Zukunft dafür verwendet werden das TOR Netzwerk und die Benutzersoftware zu verbessern. Zusätzlich wird der aktuelle Status von anonymer Kommunikation im Internet erläutert. ̈ Über einen Zeitraum von drei Monaten wurden die Überwachungsdaten gesammelt. Interessante Muster und Informationen werden aufgezeigt. Die interessantesten Muster: das TOR Netzwerk ist sehr stabil, mehr als die Hälfte aller Server kommen aus Deutschland und Amerika und es gibt ein tägliches, sinusartiges Muster in der Anzahl der Server. Die Implementierung wurde dem offiziellen TOR Status Projekt hinzugefügt und ist unter einer Open Source Lizenz veröffentlicht.

Diplomarbeitsposter Omran Mohamed

Mohamed Omran

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit befasst sich mit den Usability Aspekten von Webseiten bezugnehmend auf menschliche Wahrnehmungsfakten. In den letzten Jahren ist Tourismus zu einem der wichtigsten e-commerce Märkte geworden, der in fast jeder Region und Kultur vertreten ist. Die verschiedenen Tourismusportale gewinnen jeden Tag mehr an Bedeutung und werden von den unterschiedlichsten Usern besucht, mit der Erwartung, dass man genau auf ihre Bedürfnisse eingeht. Mit dem als Hintergedanken werden wir diese Branche als Hauptreferenten für die Arbeit nutzen. Im ersten Kapitel werden wir über einige Fakten der menschlichen Wahrnehmung reden, die für die Wahrnehmung im Web von Bedeutung sind. Es wird auch darauf hingewiesen, dass sich diese von einer Tourismusregion zur anderen unterscheiden können. Diese Wahrnehmungsprinzipien vereinfachen dem User den Zugang zum Inhalt einer Seite. Zusätzlich gehen wir auf die Wichtigkeit von Farbempfinden, typografischer Gestaltung und virtueller Haptik ein. Usability Studien werden bereits seit mehreren Jahren durchgeführt und genutzt. Im zweiten Kapitel werden die wichtigsten Fakten und Ergebnisse der verschiedenen Studien präsentiert und Checklisten und Richtlinien vorgestellt. Diese Richtlinien sollen einen Leitfaden für die Zugänglichkeit und Benutzerfreundlichkeit (Usability) bilden. Anschließend im dritten Kapitel werden wir, mithilfe unserer Richtlinien, bestimmte Tourismus Webseiten evaluieren und analysieren. Dabei werden sowohl bekannte Reiseportale wie Tiscover.at, offizielle Regierungswebseiten wie Egypt.travel, aber auch kleine Reiseagentur-Webseiten wie Goldstars.at, unter die Lupe genommen. Letztere wird anschließend einer Validierung unterzogen, um Wiederverwendungsund Modifikationsmaßnahmen zu ermitteln.

Diplomarbeitsposter Otzelberger Klaus

Klaus Otzelberger

Masterstudium Informatikmanagement
Abstract:

Ziel der Arbeit ist es den informellen Lernprozess an der TU Wien zu evaluieren um damit ein besseres Verständnis für diesen und für die dabei eingesetzten Online-Dienste zu erreichen. Die theoretische Aufarbeitung soll mehr Klarheit über das selbstorganisierte Lernen, die Erfolgsfaktoren und den Mehrwert schaffen. Eine empirische Untersuchung in Form einer schriftlichen Online-Befragung unter Informatik-Studierenden der TU Wien (n=125) widmet sich der aktuellen Nutzung der kooperativen Online-Dienste für den informellen Lernprozess. Dabei interessieren die Nutzungshäufigkeit, der Bekanntheitsgrad, die Nutzungszwecke, die Vorteile der Online- Dienste sowie eine Einschätzung über die zukünftige Nutzung. Die erhobenen Daten werden mit Hilfe von SPSS analysiert, wobei Methoden der deskriptiven und schließenden Statistik zur Anwendung kommen: Häufigkeitsauszählungen, Mittelwertberechnungen und Mittelwertvergleiche. Die Signifikanztests werden durchgeführt um die Ergebnisse auf die Grundgesamtheit, d.h. alle Informatik-Studierenden der TU Wien (N˜8.000), übertragen zu können und um Gruppen nach Geschlecht, Semesterzahl und Berufstätigkeit zu vergleichen. Die Befunde zeigen, dass Wikis/Wissenscommunities, Instant-Messaging-Dienste und Foren die wichtigste Rolle im informellen Lernprozess von Informatik- Studierenden spielen.

Diplomarbeitsposter Puntigam Arnold

Arnold Puntigam

Wirtschaftsinformatik
Abstract:

Die vorliegende Diplomarbeit beschreibt die Implementierung einer geographischen Erweiterung für das Apache Cocoon Framework. Dabei werden geographische Daten aus dem ESRI Shapefile Format in eine elektronische Karte im skalierbaren Vektorformat (SVG) konvertiert. Apache Cocoon ist ein von der Open Soure Gemeinde „Apache Software Foundation“ entwickeltes Web Applikations Framework welches die Einbindung diverser unterschiedlicher Quell-Ressourcen ermöglicht. Der Workflow innerhalb von Cocoon ist vollständig XML (extensible mark-up language) basiert. Durch die Verwendung von entsprechenden Transformationen können mittels Cocoon eine Vielzahl von unterschiedlichen Output-Formaten für unterschiedlichste Endgeräte erzeugt werden. SVG ist eine XML-Spezifikation und stellt ein Format dar um zweidimensionale Vektorgrafiken, sowohl statische als auch dynamische (interaktiv oder animiert) zu beschreiben. SVG Grafiken und ihre Eigenschaften werden in XML Textdateien definiert. Dies bedeutet, dass diese Dateien durchsucht, indiziert und nötigenfalls auch komprimiert werden können. Geographische Daten sind in vielen unterschiedlichen Formaten und Standards verfügbar. Der in dieser Arbeit vorgestellte Ansatz verarbeitet Geodaten im Shapefile Format und erzeugt daraus einen XML Datenstrom innerhalb des Cocoon Framework. In weiterer Folge wird dieser Datenstrom mittels Anwendung von XSL (extensible stylesheet language) Transformationen in SVG umgewandelt. Diese generierte Karte bietet dem Anwender durch die Verwendung von ECMA Skript einfache Interaktivitätsmöglichkeiten, wie zum Beispiel die Anzeige von Objektinformationen, wenn ein spezielles Objekt ausgewählt wird oder die Möglichkeit die anzuzeigenden Layer frei zu wählen. Diese Arbeit beschreibt die grundlegenden Eigenschaften von geographischen Daten (Raster- und Vektordaten) und gibt einen Überblick über Karten und Webkartographie. In dieser Arbeit werden alle notwendigen technischen Komponenten vorgestellt und die Implem

Diplomarbeitsposter Pöchhacker Leopold

Leopold Pöchhacker

Masterstudium Medieninformatik
Abstract:

Game-Communities, also Gruppenbildung von Computer- oder Videospielern, wird im Zuge der immer größer werdenden Anzahl an Onlinespielen immer wichtiger. Spielentwickler sind gezwungen immer mehr Zeit in die Förderung und Entwicklung einer Game-Community für das jeweilige Spiel zu stecken. Um eine Game-Community zu fördern sollten allerdings einige Aspekte und Theorien berücksichtigt werden. Diese Arbeit befasst sich mit der Erklärung und Untersuchung dieser Theorien, im Speziellen mit der wissenschaftlichen Theorie der „Community of Practice“. Ein weiterer Aspekt ist die Förderung durch Unterstützung der Community außerhalb des Spiels. Die Förderung durch Foren und Blogs, aber auch die Beteiligung der Community an der Neu- beziehungsweise Weiterentwicklung eines Spiels ist für die Förderung wichtig. Hier sollen die unterschiedlichen Möglichkeiten erkundet und auf deren Tauglichkeit in Sachen Community-Bildung aber auch -Bindung hin untersucht werden. Die Theorien und Erkenntnisse sollen anhand mehrere aktueller Spiele und Online-Welten untersucht werden: „World of Warcraft“, „Trackmania United Forever“, „Counterstrike“, „Enemy Territory: Quake Wars“, „Second Life“, „Papermint“. Ein weiteres Kapitel ist die Untersuchung einiger beispielhafter Technologien, welche die Entwicklung der Game-Communities stark beeinflussen können. Der letzte Punkt soll eine Untersuchung möglicher Zukunftsmärkte wie Social Gaming, Casual Gaming und Web 3.0 sein.

Diplomarbeitsposter Pölz Johannes

Johannes Pölz

Masterstudium Software Engineering & Internet Computing
Abstract:

Flexibilität, Effizienz und Usability sind die großen Ziele der Software Entwicklung. In dieser Diplomarbeit präsentieren wir mehrere Verbebesserungen des UML Zeichentools UMLet. Solche tools werden in den frühen Stadien des Softwareentwicklungsprozesses verwendet—dort wo ein schnelles erstes Design benötigt wird. Der größte Konkurrent ist noch immer Bleistift & Papier, weil—obwohl es einige Nachteile hat—es noch immer die größte Flexibilität und hohe Effizienz bietet. Um auf dem UML Tool Markt konkurrenzfähig zu bleiben muss UMLet vom Benutzer erweiterbar sein. Deswegen stellen wir einen Erweiterungsmechanismus vor, der dem User gestattet eigene UML Element per End User Development zu erstellen. Das erhöht die Flexibilität, weil der User nicht auf ein vordefiniertes Set von UML Elementen eingeschränkt wird. Zusätzlich stellen wir einen neuen Ansatz ganze UML Diagramme zu generieren vor. Dieser Ansatz generiert das Diagram aus einem Text, den der User eingibt. Das heißt, dass der Nutzer in der Lage ist mit der Tastatur ganze UML Diagramme zu erstellen—was die Effizienz stark erhöht. Am Ende der Arbeit werden noch einige Refactorings, Verbesserungen der Usability und neue Features der UMLet Architektur vorgestellt.

Diplomarbeitsposter Repolusk Jürgen

Jürgen Repolusk

Masterstudium Software Engineering & Internet Computing
Abstract:

Diese Arbeit beschreibt den Entwurf einer serviceorientierten Architektur eines Treasury Management Systems mit der Unterstützung von Service Engineering. Die daraus resultierende Architektur bietet bessere Performance, Skalierbarkeit sowie Modularität. Die Analyse deckt dabei drei verschiedene Sichtweisen ab: Die Managementebene, die Geschäftsebene und die Serviceebene. Die Managementebene zeigt die verschiedenen Personen und deren Hauptaufgaben, welche innerhalb des Treasury-Geschäftes notwendig sind. Bei der Geschäftsebene wird ein Treasury-Lebenszyklus entworfen, der auf einem generischen Handels-Lebenszyklus basiert und zwei zusätzliche Aktivitäten enthält: das Risikomanagement sowie die Berichterstattung an die Aufsichtsbehörde. Die Serviceebene modelliert jede einzelne Aktivität, die für die Erfüllung des Treasury Lebenszyklus notwendig ist. Das Design der Architektur selbst gliedert sich in zwei Teile. Einerseits wird die Architektur nach dem 4+1 Model in den verschiedenen Zusammenhängen dargestellt, andererseits werden danach die nicht-funktionalen Anforderungen wie Erweiterbarkeit, Sicherheit, Integrierbarkeit sowie die Effizienz beschrieben.

Diplomarbeitsposter Schabel Markus

Markus Schabel

Masterstudium Informatikmanagement
Abstract:

Der theoretische Unterricht wird in vielen Bereichen durch entsprechende praktische Beispiele untermauert. Oft werden dabei seit Jahren die gleichen Beispiele verwendet -- moderne Sensoren kommen dabei nur selten zum Einsatz. Diese Arbeit soll daher zeigen, in welchen Bereichen der Unterricht durch entsprechende aktuelle praktische und theoretische Beispiele erweitert werden kann. Als Basis dafür wurden Beschleunigungssensoren herangezogen, da diese bereits in zahlreichen Anwendungsbereichen vielfältige Verwendung finden. Daher wurden die Lehrpläne entsprechend ihrer Möglichkeiten für die Erweiterung mit für Beschleunigungssensoren relevanten Thematiken analysiert. Weiters wurden verschiedene verfügbare Hardwarekomponenten evaluiert und darauf aufbauend eine entsprechende Hardware für den Einsatz im Unterricht präsentiert. Abschließend wurden verschiedene Unterrichtsszenarien mit theoretischen Grundlagen sowie praktischen Anwendungsbeispielen und Projekten vorgestellt.

Diplomarbeitsposter Scholz Bernhard

Bernhard Scholz

Masterstudium Business Informatics
Abstract:

In den vergangenen Jahren haben sich Universitäten und Forschungseinrichtungen vielfach mit den Techniken auseinandergesetzt, die von Hackern verwendet werden um in Computersysteme einzubrechen: Nicht nur die relativ kleine Gemeinde von IT-Sicherheitsspezialisten, sondern auch breitere Kreise von Computernutzern wurden über Buffer-Overflows, gängige Konfigurationsfehler in populären Softwareprodukten und die Gefahren von Social-Engineering Angriffen informiert. Weit weniger öffentliche Beachtung haben jedoch die Techniken erfahren, die es Hackern ermöglichen ihre Präsenz auf einem bereits übernommenen Host zu verschleiern. Sogenannte Rootkits - Werkzeuge, die es einem Angreifer erlauben seine eigenen Aktionen auf einem kompromittierten System vor den legitimen Eigentümern zu verbergen - haben eine ebenso rasante wie stille Entwicklung durchlebt. Während sich die erste Generation von Rootkits noch auf der selben Berechtigungsebene wie andere Endbenutzerprogramme bewegte, operieren moderne Rootkits längst auf einer höheren Ebene: im System-Kernel von Windows- und Linux-Betriebssystemen. Neue Entwicklungen, wie beispielsweise fortgeschrittene Virtualisierungs- Technologien, die von der aktuellen Generation von AMD- und Intel-CPUs unterstützt werden, bilden die technische Basis für eine brandneue Generation von Rootkits mit atemberaubenden Möglichkeiten. Sogenannte Hypervisor-Rootkits sind in der Lage kompromittierte Computer vollständig in eine virtuelle Maschine zu verschieben, und auf diese Art und Weise jedwede Aktion des "gefangenen" Hosts zu kontrollieren. Im Rahmen dieser Diplomarbeit wird die Evolution von Rootkits von den ersten User-Mode Rootkits über Kernel-Basierte Rootkits bis zu den neuesten Prototypen von Hypervisor-Rootkits beschrieben. Die Funktionsweise dieser Tools wird erläutert und Möglichkeiten, aber auch Grenzen der jeweiligen Rootkit-Art aufgezeigt. Abschließend wird der Grad der Gefährdung des Endbenutzers durch die verschiedenen Rootkit-Arten

Diplomarbeitsposter Tabatabai Irani Mohammad

Mohammad Tabatabai Irani

Masterstudium Business Informatics
Abstract:

Sicherheit wird immer wichtiger und ist heutzutage einer der wichtigsten Aspekte im gesamten IT-Umfeld sowie allen IT-Projekten. Um einen besseren Schutz in diesem Bereich zu gewaehrleisten, wenden Sicherheitsexperten die Ansaetze und Hilfsmittel der Angreifer an. Post-Exploitation ist das Ziel aller Angriffe und daher ist wichtig zu wissen was waehred dieser Periode gemacht wird. Post-Exploitation und deren Automatisierung sind der Inhalt dieser Arbeit.

Arbeitsbereich (vor 2018) Business Informatics

Diplomarbeitsposter Horner Hildegund

Hildegund Horner

Wirtschaftsinformatik
Abstract:

Ein wichtiges Thema, mit dem sich heutige Unternehmen auseinandersetzen müssen, ist die effiziente Bewältigung der sich ständig ändernden Anforderungen. Dies betrifft sowohl Kundenanforderungen, wie auch gesetzliche Rahmenbedingungen. Auch Vermögensverwaltungen sind davon nicht ausgenommen. Dies zeigen einerseits die Einführung des neuen WAGs 2007 (Wertpapieraufsichtsgesetz 2007) und andererseits die aktuellen Ereignisse am Finanzmarkt. Doch wie am Besten mit diesen Herausforderungen umgehen? Diese Arbeit untersucht deshalb, wie Geschäftsprozessmanagement dazu beitragen kann. Dazu werden zum einen die Aspekte von ganzheitlichem Geschäftsprozessmanagement im Allgemeinen betrachtet und zum anderen, anhand einer Fallstudie, Methoden aus dem Geschäftsprozessmanagement zur Erhebung der Ist-Prozesse angewendet. Anhand dieses Beispiels wird eine Prozesslandkarte mit den Kernprozessen präsentiert. Zusätzlich zur Detaildokumentation der Kernprozesse, werden diese zum Großteil auch mit BPMN (Business Process Modelling Notation) modelliert. Außerdem wird eine Gesamtbeurteilung der Kernprozesse im Bezug auf Verbesserungsmöglichkeiten abgegeben. Fazit ist, dass kontinuierliches Geschäftsprozessmangement für Unternehmen eine Möglichkeit ist, sich rechtzeitig den Veränderungen anzupassen. Eine reine Dokumentation der Prozesse bedeutet aber noch nicht, dass Geschäftsprozessmanagement effizient eingesetzt wird.

Diplomarbeitsposter Langer Philip

Philip Langer

Masterstudium Business Informatics
Abstract:

In den letzten Jahren gewannen Softwaremodelle als zentrale Artefakte der Softwareentwicklung zunächst mit dem CASE-Ansatz (Computer Aided Software Engineering) und später mit dem MDE-Ansatz (Model Driven Engineering) immer mehr an Bedeutung. Sie dienen mittlerweile nicht nur zur Dokumentation und zur Bildung des gemeinsamen Verständnisses sondern auch als Grundlage für die Generierung eines lauffähigen Systems. Der modellgetriebene Ansatz ist in der Softwareentwicklung zu einer etablierten und weit verbreiteten Methode geworden. An dem Softwareentwicklungsprozess ist in größeren Softwareprojekten üblicherweise eine Vielzahl an EntwicklerInnen beteiligt. Diese verfeinern in einem zumeist iterativen Prozess das zu entwickelnde System und passen es stetig an sich verändernde Anforderungen, Verständnisse und laufend zu treffende Design\-entscheidungen an. Für eine erfolgreiche Durchführung eines Softwareprojekts ist daher ein effizientes Änderungs- und Konfigurationsmanagement ausschlaggebend und ermöglicht erst die effektive Zusammenarbeit mehrerer EntwicklerInnen. Traditionelle Versionierungssysteme implementieren größtenteils nur zeilenbasierte Konflikterkennung und bieten daher keine ausreichende Unterstützung für Erkennung und Resolution von Konflikten bei der Versionierung von Softwaremodellen, die eine graphenbasierte Form aufweisen. Das Ziel dieser Arbeit ist die Erarbeitung und Implementierung einer intelligenten, adaptierbaren Konflikterkennung für die Versionierung von Modellen. Es wird ein Rahmenwerk geschaffen, das out-of-the-box einen verwendbaren Vergleichs- und Konflikterkennungsalgorithmus für Modelle bietet und bei Bedarf durch die Erstellung spezifischer Beschreibungen für eine konkrete Modellierungssprache oder -domäne adaptiert werden kann. Diese sprachspezifischen Erweiterungen erhöhen die Qualität und Genauigkeit der Konflikterkennung und verhindern dadurch unnötige Konfliktmeldungen und manuelle Eingriffe.

Diplomarbeitsposter Schwaiger Martin

Martin Schwaiger

Masterstudium Business Informatics
Abstract:

2005 hat die Object Management Group (OMG) mit einer 18 monatigen Verspätung die UML 2.0 verabschiedet. Eine Version der Unified Modeling Language, die kompakter, verständlicher und in sich schlüssiger sein soll. Die bedeutendste Kritik an der UML 1.x ist der Vorwurf, zu groß und komplex zu sein, um sie schnell erlernen und angemessen benutzen zu können.[1] Die vorliegende Diplomarbeit beschäftigt sich mit der Frage, ob die UML 2.0 wirklich effektiver und effizienter geworden ist. Diese Frage soll durch die Erstellung eines SW-Projektes beantwortet werden, in dem alle Diagrammtypen zum Einsatz kommen. Der theoretische Teil enthält neben der Entstehungsgeschichte der UML auch eine Beschreibung der Diagrammarten. Ziel ist dabei, mit wenig Leseaufwand die Diagramme und deren Einsatz verstehen zu können. Weiters wird die Beispielproblemstellung vorgestellt, die im praktischen Teil mit der UML 2.0 umgesetzt wird. Hierbei geht es um die Vereinigung mehrerer einzelner Software Systeme zu einem bestehenden System für ein Unternehmen. Das Ziel des Unternehmens ist das Arbeiten auf einem System und nicht wie bis jetzt auf mehreren. Zusätzlich wurde im praktischen Teil ein Kriterienkatalog vorgestellt, anhand dessen die Diagramme kritisch hinterfragt werden.

Diplomarbeitsposter Stockinger Claudia

Claudia Stockinger

Wirtschaftsinformatik
Abstract:

Ein wichtiges Thema, mit dem sich heutige Unternehmen auseinandersetzen müssen, ist die effiziente Bewältigung der sich ständig ändernden Anforderungen. Dies betrifft sowohl Kundenanforderungen, wie auch gesetzliche Rahmenbedingungen. Auch Vermögensverwaltungen sind davon nicht ausgenommen. Dies zeigen einerseits die Einführung des neuen WAGs 2007 (Wertpapieraufsichtsgesetz 2007) und andererseits die aktuellen Ereignisse am Finanzmarkt. Doch wie am Besten mit diesen Herausforderungen umgehen? Diese Arbeit untersucht deshalb, wie Geschäftsprozessmanagement dazu beitragen kann. Dazu werden zum einen die Aspekte von ganzheitlichem Geschäftsprozessmanagement im Allgemeinen betrachtet und zum anderen, anhand einer Fallstudie, Methoden aus dem Geschäftsprozessmanagement zur Erhebung der Ist-Prozesse angewendet. Anhand dieses Beispiels wird eine Prozesslandkarte mit den Kernprozessen präsentiert. Zusätzlich zur Detaildokumentation der Kernprozesse, werden diese zum Großteil auch mit BPMN (Business Process Modelling Notation) modelliert. Außerdem wird eine Gesamtbeurteilung der Kernprozesse im Bezug auf Verbesserungsmöglichkeiten abgegeben. Fazit ist, dass kontinuierliches Geschäftsprozessmangement für Unternehmen eine Möglichkeit ist, sich rechtzeitig den Veränderungen anzupassen. Eine reine Dokumentation der Prozesse bedeutet aber noch nicht, dass Geschäftsprozessmanagement effizient eingesetzt wird.

Diplomarbeitsposter Swoboda Clemens

Clemens Swoboda

Wirtschaftsinformatik
Abstract:

Aufgrund der schon weit fortgeschrittenen und immer weiter fortschreitenden Vernetzung von verschiedenen Systemen und Datenquellen mussten und müssen auch weiterhin Wege gefunden werden, diese Vernetzungen möglichst effektiv durchzuführen, um möglichst viel Nutzen daraus zu ziehen. Ein in diese Thematik fallender Bereich befasst sich mit der Integration bzw. Migration von Daten, die mittlerweile in allen Bereichen der Wirtschaft Anwendung findet. So zum Beispiel in Unternehmen, die Kooperationen eingehen oder fusionieren, Unternehmen, die andere Unternehmen übernehmen oder bei Plattformen, die es sich zur Aufgabe machen, Informationen aus unterschiedlichen Quellen in unterschiedlichen Formaten mit unterschiedlichen Strukturen zur Verfügung zu stellen. Bei all diesen Ereignissen spielt Informationsintegration eine große und entscheidende Rolle. Ein Ziel dieser Arbeit ist es, die Thematik der Informationsintegration und insbesondere der Datenmigration näher zu beleuchten. Problembereiche sollen aufgedeckt und der momentane Stand an Werkzeugen und Sprachen dargestellt werden. Eine in der Theorie beschriebene Vorgehensweise wird anhand eines praktischen Beispieles umgesetzt, um einerseits praktische Erfahrung zu sammeln, und andererseits einzelne Abläufe besser darstellen zu können. Ein wichtiger Punkt bei der Datenmigration ist die Verlässlichkeit und die Kor- rektheit einer solchen Migrationslösung, weshalb der TeCa-4-DaMi Prozess (Test Cases for Data Migration) entwickelt wird, der die Methode der testgetriebenen Datenmigration einführt, um erfolgreiche Migrationslösungen zu erstellen. Einen Kernpunkt dieses Prozesses stellen die Testfälle dar, die ausschlaggebend für den Erfolg des Prozesses sind. Daher bietet TeCa-4-DaMi ein Framework, das speziell die systematische Erstellung von Testfällen unterstützt, um die Korrektheit und Vollständigkeit von Migrationslösungen zu gewährleisten.

Diplomarbeitsposter Tragatschnig Simon

Simon Tragatschnig

Masterstudium Business Informatics
Abstract:

In der modernen Softwareentwicklung werden Modelle nicht nur zur Dokumentation eingesetzt sondern auch zur Generierung von Quellcode. Syntaxfehler und Inkonsistenzen im Modell wirken sich daher direkt auf den Quellcode aus. Bearbeitet nur ein Entwickler ein Modell, so kann ein zumindest in sich konsistentes Modell durch die von der Entwicklungsumgebung zur Verfügung gestellten Werkzeuge gewährleistet werden. Arbeiten jedoch mehrere Entwickler kollaborativ an einem Modell, was der realistischere Fall ist, muss dieses unter Versionskontrolle (version control system, VCS) gestellt werden. Herkömmliche textbasierte Ansätze zur Versionierung sind für graphische Modelle jedoch nicht ausreichend. Die Verwendung von konventionellen VCS zur Versionierung von Modellen bringt zwei grundlegende Probleme mit sich. Das erste Problem bezieht sich auf die auftretenden Konflikte zwischen zwei Modellversionen, z.B. wenn mehrere Entwickler gleichzeitig dasselbe Modellelement ändern. Diese Konflikte müssen durch die Entwickler manuell aufgelöst werden, da für eine Zusammenführung der Änderungen keine Werkzeugunterstützung existiert. Treten bei der manuellen Zusammenführung der Änderungen Fehler auf, hat dies direkten Einfluss auf den generierten Quellcode. Das zweite Problem bezieht sich auf Information, die während der Konfliktauflösung entsteht, aber für zukünftige ähnliche Konfliktsituationen nicht gespeichert wird und daher nicht wiederverwendet werden kann. Diese Information könnte jedoch dem Entwickler bei späteren Konfliktauflösungen hilfreich sein. Außerdem könnten auf Basis dieser Information über mögliche Konfliktsituationen Entwurfsrichtlinien für die Erstellung eines Modells vorgegeben werden. Der in dieser Arbeit vorgestellte Ansatz zur Konfliktauflösung ermöglicht eine Beschreibung von Auflösungsstrategien für syntaktische und statisch semantische Konflikte. Zur Beschreibung der syntaktischen Konflikte und deren Auflösung wird eine modellbasierte, deskriptive Sprache vo

Andere Institute der Technischen Universität Wien

(vor 2018) Institut für Analysis und Scientific Computing

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Marlies Rybnicek
Diplomarbeitsposter Mozaffari Bahram

Bahram Mozaffari

Masterstudium Medizinische Informatik
Abstract:

Bei der Diplomarbeit wurde nach einer Einführung über den allgemeinen Aufbau der Nervenzelle versucht, ausgehend von den bekannten biologischen Eigenschaften des myelinierten Warmblüteraxons, zunächst geeignete mathematische Modelle und Ansätze zur Stimulation der Warmblüternervenfaser mit NEURON zu implementieren und diese dann eine nach der anderen an verschiedenen modellierten Nervenfasern anzuwenden um die Funktionsweise dieser Modelle auszutesten. Darüberhinaus wurde nach umfangreichen Literaturrecherchen und zahlreichen unabhängigen Simulationsexperimenten an jeden einzelnen Kompartimenten des myelinierten Warmblüteraxons(bestehend aus einem Soma, einem myelinierten und einem unmyelinierten Teil) letztendlich das natürliche vollständige Axon so in NEURON modelliert, dass es möglichst präzise dem realen Warmblüteraxon entspricht. Dadurch sind die Simulationsergebnisse der Axonstimulation ziemlich realitätsnah. Dieses implementierte myelinierte Axon wurde dann unter Anwendung des zum ersten Mal bei dieser Arbeit in der Simulationssprache NMODL implementierten Sweeney- bzw. CRRSS-Modells angeregt. Dabei wurden abgesehen von den lokalen Simulationsergebnissen der Experimente auch die räumlichen Modelle unter die Lupe genommen und untersucht. Das räumliche Modell des modellierten natürlichen Warmblüteraxons macht den Prozess der Aktionspotenzialfortpflanzung entlang des Axons ersichtlich. Wobei im Laufe der Arbeit auch in Details auf Spannungsfortleitungsgeschwindigkeit unterschiedlicher Nervenfaser eingegangen wird und die dies betreffenden Literaturrechercheergebnisse ausführlich diskutiert und erläutert werden.

(vor 2018) Institut für Wirtschaftsmathematik

Diplomarbeitsposter Handler Michael

Michael Handler

Wirtschaftsinformatik
Abstract:

In dieser Diplomarbeit aus dem Gebiet der Volkswirtschaftslehre wird der Versuch unternommen an Hand zweier Modelle einen Überblick über Lohn-Preis-Systeme in der Europäischen Union zu geben. Hierfür soll als „historisches“ Modell, welches durch Erweiterungen aktualisiert werden kann, die Lohn-Preis-Spirale und als aktuelles gesamtwirtschaftliches Modell das Tandem Modell gewählt werden. Zu Beginn der Arbeit wird die Lohn-Preis-Spirale genauer erklären. Dabei soll auf die Erstellung eines Modells für die Lohn-Preis-Spirale, ihre Bedeutung in der Wirtschaft und ihre Aktualität eingegangen werden. Der zweite Teil der Arbeit beschäftigt sich mit der Beschreibung eines gesamtwirtschaftlichen Simulationsmodells in Form des Tandem Modells. Es soll hier ein kurzer Überblick über das Basismodell geben und anschließend näher auf die erweiterten, komplexeren Modelle Tandem-T und Tandem-M eingegangen werden. Mit Hilfe des Tandem-M Modells wird der Einfluss und die Bedeutung von Innovationen und technischem Fortschritt in der heutigen Wirtschaft erläutert. Wie ändern sich wichtige Wirtschaftsfaktoren durch technischen Fortschritt? Was passiert dabei mit der Produktionsfunktion? Welche Möglichkeiten gibt es Innovation in die Produktionsfunktion mit ein zu beziehen? Diese Fragen sollen beantwortet und, als einer der wichtigeren Punkte in dieser Arbeit, die Auswirkung auf Löhne und Preise ausgearbeitet werden. Das Simulationsmodell Tandem-M stellt eine Lohngleichung und eine Preisgleichung zur Verfügung mit deren Hilfe man zukünftige Entwicklungen abschätzen kann. Um diese Schätzungen jedoch durchführen zu können, müssen Parameterwerte der Gleichungen anhand vergangener Entwicklungen geschätzt werden. Dieser Punkt stellt sich als Aufgabe für den 3. Teil der Arbeit zur Verfügung. Hier werden für diese beiden Gleichungen die Parameterwerte, für ausgewählte Staaten der Europäischen Union, berechnen. Den Abschluss stellt eine Interpretation der erhaltenen Ergebnisse dar.

Diplomarbeitsposter Kaniak Christoph

Christoph Kaniak

Wirtschaftsinformatik
Abstract:

Die Idee der agentenbasierten Modellierung wurde bereits in einer simplen Form in den späten 1940er geboren, doch auf Grund der sehr rechenintensiven Prozeduren und der mangelnden Rechenleistung konnte sich diese Technik erst in den 1990ern profilieren und in vielen wissenschaftlichen Bereichen langsam Fuß fassen. Heute erfreut sich diese Methode, durch die immer leistungsfähigeren Prozessoren und die verhältnismäßig günstige Anschaffung dieser, sehr großer Beliebtheit um heterogene Systeme zu analysieren. Durch agentenbasierte Simulationen lässt sich das Verständnis gewinnen, wie sich der Einfluss von Mikrolevel-Prozessen auf das Makrolevel-Verhalten auswirkt und somit die Entstehung ökologischer, wirtschaftlicher oder sozialer Mustern bewirkt. Die Vorgehensweise lässt sich wie folgt skizzieren: in einer beliebigen Programmiersprache werden Agenten in Form von Objekten erstellt, welche sich in einer künstlichen Umgebung bewegen können. Mit Hilfe ihrer eigenen Attribute und Methoden können sie miteinander interagieren und somit ihre eigenen Zustände ändern beziehungsweise die Zustände anderer Agenten beeinflussen. Betrachtet man schließlich das System im Ganzen, so können hiermit beispielsweise Strömungen oder Entstehungen von Verhaltensmustern beobachtet werden. Die Umsetzung eines theoretischen Modells zu einer agentenbasierten Computersimulation bedarf allerdings einiger Schritte, welche jeweils Fehler mit sich bringen können. Bereits ein Missverstehen des Modells selbst, ein Missinterpretieren von Werten oder auch ein Logikfehler während der Implementierung in der jeweiligen Programmiersprache lassen eine gültige Abbildung nicht mehr zu. Sollten auch die Ergebnisse der Simulation in etwa mit den Erwartungswerten übereinstimmen, bedeutet dies nicht zwingend, dass es sich hierbei um eine korrekte Umsetzung handelt. Genau an diesem Punkt setzt nun die Replikation von Simulationen an: durch wiederholtes Replizieren eines theoretischen Modells in unterschiedliche

Diplomarbeitsposter Pischel-Strohmaier Barbara

Barbara Pischel-Strohmaier

Wirtschaftsinformatik
Abstract:

Agent Based Modeling (ABM) ist zur Zeit eines der am häufigsten benutzten Schlagwörter in einer ganzen Reihe verschiedener wissenschaftlicher Communities. Diese Begeisterung wird vor Allem von der Tatsache angetrieben, dass im Zuge der sehr dynamischen Entwicklung der Informatik und Computertechnik in den letzten zwanzig Jahren in ABM ein leistungsfähiges Werkzeug erwachsen ist, dass die Abbildung und systematische Analyse einer Vielzahl wissenschaftlicher Fragestellungen, von ökonomischen Entwicklungen über chemische Prozesse bis hin zu sozialen Phänomenen, ermöglicht. Die vorliegende Arbeit zeigt einen Querschnitt über die verschiedenen Forschungsbereiche, in denen ABM zur Zeit eingesetzt wird. Ein Abriss der historischen Entwicklung der verschiedenen Modellierungsansätze verdeutlicht die Entwicklung der aktuellen Anwendungsbereiche, von den ersten theoretischen, oft sehr abstrakten Ansätzen manueller Analytik bis zu den heutigen computergestützten und oft hochkomplexen Simulationen. Besonderer Fokus liegt dabei auf der Analyse wichtiger Grundlagenmodelle wie Sugarscape, die, von fast epochaler Bedeutung für ABM, auch heute noch die Grundlage vieler aktueller Simulationen bilden. Den Schwerpunkt der Arbeit bildet dabei die Untersuchung der Gemeinsamkeiten und Differenzen zwischen der Verbreitung einer beliebigen Normen, sowie der Verbreitung einer Seuche an Hand eines selbst entwickelten Normenmodells sowie eines - von Biologen entwickelten - HIV Modells.

(vor 2018) Institut für Statistik und Wahrscheinlichkeitstheorie

Diplomarbeitsposter Annau Mario

Mario Annau

Intelligente Systeme
Abstract:

Die steigende Verfügbarkeit von historischen Orderbuchdatensätzen macht es sowohl Marktteilnehmern als auch akademischen Institutionen möglich, die Marktmikrostruktur in einem noch nie dagewesenen Detailgrad zu analysieren. Die im Rahmen dieser Diplomarbeit vorgestellten Softwarebibliotheken ermöglichen die Rekonstruktion und Visualisierung eines von der Deutschen Börse AG und dem Institut für Investmentbanking und Katallaktik zur Verfügung gestellten XETRA DAX30 Orderbuch–Datensatzes. Im einleitenden Rekonstruktionsprozess geht es vor allem um die Herstellung eines bereinigten und konsistenten Datensatzes. Dieser kann anschließend mit dem implementierten Orderbuch–Visualisierungstool graphisch dargestellt und analysiert werden. Die Hauptfeatures des Visualisierungstools umfassen eine stufenlose Zoom–Funktion und diverse Filter, um die zu visualisierenden Orders einzuschränken. Dadurch ist es sogar möglich einige algorithmische Handelsstrategien zu identifizieren und durch die Anwendung von Filtern hervorgehoben darzustellen.

Diplomarbeitsposter Taucher Christian

Christian Taucher

Masterstudium Informatikmanagement
Abstract:

Der Begriff E-Learning setzt sich in Zeiten des Internets und neuer Medien immer mehr durch. Durch den schnellen technischen Fortschritt der Informationstechnologien gewinnt dieser Begriff auch im Bildungswesen immer mehr an Bedeutung Die vorliegende Arbeit befasst sich mit dem Einsatz von E-Learning -Technologien im Programmierunterricht an Höher Bildenden Schulen in Österreich. Da die Programmierung im Informatikunterricht eine zentrale Stellung einnimmt und sowohl für Lehrende als auch für Schüler/Innen eine große Herausforderung darstellt, werden, nach einer Einführung in das Thema E-Learning und in die dem Unterricht zugrunde liegenden Lerntheorien, die Ziele, Inhalte und Methoden des Programmierunterrichtes erläutert. Geprüft wurde, ob und in welchem Maß E-Learning -Technologien den Programmierunterricht unterstützen können bzw. wie und warum diese Technologien zum Einsatz kommen oder warum sie eher selten Anwendung finden. Dazu wurden, unter Zuhilfenahme eines Interviewleitfadens, Experteninterviews mit Lehrenden an Höher Bildenden Schulen in Wien durchgeführt. Es zeigte sich, dass die Lehrenden zum Großteil Lernplattformen einsetzen, welche sie dazu verwenden, den Lernenden Materialien zur Verfügung zu stellen und unterrichtsrelevante Termine zu koordinieren. Der Präsenzunterricht hat für die Lehrenden einen sehr hohen Stellenwert, daher werden die E-Learning -Technologien hauptsächlich zur Unterstützung des Unterrichts eingesetzt. Am meisten profitieren die Lernenden davon, dass die Lernmaterialien zeit- und ortsunabhängig zur Verfügung stehen, was sich motivierend und daher positiv auf die Leistung auswirkt. Die umfangreichen Möglichkeiten der E-Learning -Technologien werden von den Lehrenden jedoch nicht ausgeschöpft. Das liegt hauptsächlich daran, dass die Erstellung von ausgereiften Lernmodulen sehr viel Zeit in Anspruch nimmt bzw. die Anschaffung von fertigen Lernmodulen mit hohen Kosten verbunden ist. Dies sind auch die Hauptgründe, wieso diese Tech

(vor 2018) Department für Raumplanung

Diplomarbeitsposter Bozev Krassimir

Krassimir Bozev

Wirtschaftsinformatik
Abstract:

Die Zielsetzung der Arbeit ist die Untersuchung und Analyse der Internetstrategien von Non-Profit-Organisationen (NPO) am Beispiel des Österreichischen Kulturzentrums (ÖKZ). Als Basis für die Untersuchung dienen dabei die Struktur, die Finanzierung und die Budgetierung des Non-Profit-Unternehmens. Es werden spezifische Merkmale von NPO dargestellt und deren Auswirkungen zusammengefasst. Die betrachteten Merkmale sind insbesondere der Tätigkeitsbereich, die Leistungsart, die Finanzierung, die Kontrolle, der Funktionsbereich und die Steuern. Das ÖKZ ist als Fremdleistungs-Organisation, leistungsfinanziert, wirtschaftsnah, managementgesteuert und steuerbegünstigt zu charakterisieren. Ebenso werden in der vorliegenden Arbeit die verschiedenen Finanzierungsmöglichkeiten für NPO dargestellt. Eine der Hauptaufgaben des Finanzierungsmanagements in NPO ist die Sicherung der Liquidität. NPO sind auf die Entwicklung von Finanzierungsstrategien angewiesen. Die Portfolio-Analyse bietet sich dabei als universales Instrument zur Entwicklung von individuellen Finanzierungsstrategien an. Es gelangt eine integrierte operative Budgetierung bestehend aus drei Teilplänen (Plan Gewinn- und Verlustrechnung, Finanzplan und Planbilanz) zur Anwendung. Mit dem Ergebnis der Budgetierung sind die wichtigsten unternehmensrelevanten Daten (Entwicklung des Betriebsergebnisses und des Eigenkapitals) für einen bestimmten Zeitraum festgelegt. Im Rahmen der Budgetierung werden operative Zielsetzungen verfolgt. Die Umsetzung der Internetstrategie in der Organisation wird mittels Einsatzes eines Joomla!-CMS realisiert. Durch den Einsatz des CMS ist eine Unterstützung in allen Geschäftsbereichen der Organisation, mit der Zielsetzung der Erreichung aller Organisation- und Marketingziele sowie der Verstärkung der Finanzbasis, realisiert worden. Implementierte Internetmarketing-Instrumente sind Suchmaschinen-Optimierung, Online-Werbung, Statistik-Tools des CMS und E-Marketing.

Diplomarbeitsposter Schneider Arthur

Arthur Schneider

Masterstudium Informatikmanagement
Abstract:

In den Jahren 2004 und 2007 vergrößerte sich die Europäische Union in Richtung Süden und Osten. Diese Erweiterungen haben erhebliche Veränderungen für die österreichischen Straßengüterbeförderungsunternehmen mit sich gebracht. Ausgehend von diesen Umgestaltungen stellen sich nun folgende Fragen: Wie hat sich für österreichische Güterbeförderungsunternehmen die Wettbewerbssituation am Transportmarkt nach der EU-Erweiterung verändert, welche Strategiemöglichkeiten existieren und welche Strategien werden angewandt, um weiterhin erfolgreich zu sein. Zunächst werden die gesetzlichen Bestimmungen der Europäischen Union dargestellt, die den Rahmen für die Durchführung von Transportdienstleistungen vorgeben. Ein besonderes Augenmerk wird dabei auf die Identifizierung von Unterschieden gelegt, die zwischen den einzelnen EU-Ländern in den Rahmenbedingungen existieren. Es wird gezeigt, welche Auswirkungen diese Unterschiede auf die Wettbewerbsfähigkeit der Transportunternehmen haben. In einer qualitativen empirischen Untersuchung (Interviews mit praxiskundigen Fachleuten aus österreichischen Güterbeförderungsunternehmen) wurden die angewandten Strategien der österreichischen Transportunternehmen ermittelt und einer Beurteilung hinsichtlich ihrer Wirkung auf den wirtschaftlichen Erfolg, die Wettbewerbsfähigkeit und die Zukunftsaussichten unterzogen. Es zeigte sich, dass seit den Beitritten eine Fokussierung der österreichischen Unternehmen auf den heimischen Markt stattfindet und ein Rückzug vom internationalen Transportmarkt festzustellen ist. Für Unternehmen, die ausschließlich Standardtransportleistungen – ohne logistische Zusatzdienste erbringen, wird ein Überleben nur schwer möglich sein. Eine synergetische Beziehung zwischen Transportunternehmen und Kunden stellt den Schlüssel für eine künftige erfolgreiche Existenz am Markt dar. Aktivitäten in transportlogistischen Nischenbereichen stärken zusätzlich die Marktposition.

Diplomarbeitsposter Teuffenbach Daniel

Daniel Teuffenbach

Wirtschaftsinformatik
Abstract:

Viele Gesundheitspolitiker sind über die überproportional wachsenden Gesundheitsausgaben, gemessen an ihrem Anteil am Bruttoinlandsprodukt (BIP), besorgt. Luxemburg hat im EU-15-Vergleich die höchsten Pro-Kopf-Ausgaben und gleichzeitig die geringsten Ausgaben in Prozent des BIP. Griechenland hat den höchsten privaten Finanzierungsanteil in Prozent des BIP. Bei den Pro-Kopf-Ausgaben liegt Österreich (im EU-15-Vergleich) an zweiter und bei den relativen Gesundheitsausgaben (in % des BIP) an fünfter Stelle. Neben der Ausgabenseite werden die Systeme, hinsichtlich ihrer Finanzierung, in steuer- und beitragsfinanzierte Systeme eingeteilt. Steuerbasierte Systeme haben meist mit Wartezeiten in verschiedenen Gesundheitssektoren zu kämpfen. Beitragsfinanzierte Systeme hingegen stehen den steuerbasierten Systemen bezüglich Deckungsgrad nach. Länder mit einem hohen Anteil an Beitragsfinanzierung sind Frankreich, Deutschland, Luxemburg und die Niederlande. Eine überwiegende Steuerfinanzierung ist in den Ländern Dänemark, Irland, Italien, Portugal, Spanien, Schweden und dem Vereinigten Königreich zu finden. Hinsichtlich der Strukturen lassen sich die Gesundheitssysteme in überwiegend dezentral oder zentral gegliederte Systeme einteilen. Jede Strukturart kann, sofern sie gut organisiert ist, effizient sein. Im Bereich der Leistungserbringerdichte von Allgemeinmedizin, Spezialisten, Zahnärzten und Krankenpflegern kann vor allem Belgien eine sehr hohe Dichte vorweisen. Griechenland hat mehr Mediziner als Krankenpflegekräfte. Im Bereich der Geldleistungen (Lohnfortzahlung und Krankengeld) im Falle von Krankheiten werden die EU-15 Länder jeweils für eine kurze (2-wöchige), mittlere (24-wöchige) und länger andauernde (175-wöchigen) Krankheit verglichen.

Diplomarbeitsposter Wieland Konrad

Konrad Wieland

Masterstudium Business Informatics
Abstract:

Am 15. März 2006 beschloss das europäische Parlament die Richtlinie über die Vorratsspeicherung von personenbezogener Daten 2006/24/EG (Im Folgenden: "Richtlinie"). Im Vorfeld wurde über diese Richtlinie viel diskutiert und debattiert. Die eben nicht ganz unumstrittene Richtlinie wurde allem voran zur Bekämpfung organisierter Kriminalität und zur Verhinderung von Terroranschlägen erstellt. Diese Arbeit beschreibt sowohl die gesellschaftliche Akzeptanz, aber auch Kritik und Angst der Bevölkerung hinsichtlich einer Datenspeicherung und auch deren Ruf nach Datenschutz. Die Vorratsdatenspeicherung kann als eine Vorstufe der Telekommunikationsüberwachung gesehen werden. Daten werden auf Vorrat gespeichert und sind daher auch nach geraumer Zeit abrufbar und weiterverwendbar. Dazu sollen vor allem die Kundendaten wie Verkehrs- und Standortdaten aber auch Geräteidentifikationen für einen längeren Zeitraum gespeichert bleiben. Zuständige und autorisierte Behörden können dann bei Bedarf jederzeit auf diese Daten zugreifen. In dieser Diplomarbeit werden den rechtlichen und ökonomischen Fragen, die bei der Umsetzung der Richtlinie in nationales Recht aufgeworfen werden, nachgegangen und damit verbundene Probleme aufgezeigt. Experten sehen in dieser Richtlinie die völkerrechtlichen Vereinbarungen durch die EMRK nicht eingehalten. Durch die aktuelle Gesetzeslage müssen in Österreich bei der Umsetzung einige Schwierigkeiten berücksichtigt und Probleme gelöst werden. Die Umsetzung wird auch erhebliche finanzielle Konsequenzen mit sich bringen. Die Ergebnisse für fiktive Internet Service Provider mit aktuellen Daten werden in dieser Diplomarbeit präsentiert.

(vor 2018) Institut für Fertigungstechnik und Hochleistungslasertechnik

Diplomarbeitsposter Sagir Zeynep

Zeynep Sagir

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Ziel dieser Arbeit ist es, vor allem die Grundlagen des Qualitätsmanagements und Total Qualitätsmanagements zu betrachten, öffentliche Verwaltungen vorzustellen, sowie das Qualitätsmanagement mit den jeweiligen Werkzeugen in den öffentlichen Verwaltungen angewendet wird, zu forschen. Weiters ist es ein Ziel, Einblick in die praktische Anwendung am Beispiel der Gemeinde Kartal zu geben.

(vor 2018) Institut für Mechanik und Mechatronik

Diplomarbeitsposter Klostermann Andrea

Andrea Klostermann

Masterstudium Medizinische Informatik
Abstract:

Die Elektroretinographie ist ein wichtiger Bestandteil der Augendiagnostik und dient der Untersuchung der Netzhaut. Diese reagiert auf applizierte Lichtreize mit der Bildung elektrischer Potentiale, welche die Aktivität der retinalen Zellen widerspiegeln und mittels Hornhautelektrode aufgezeichnet werden. Die klassische Elektroretinographie verwendet Weißlicht in unterschiedlichen Intensitäten. Studien haben jedoch gezeigt, dass farbiges Licht ein Hilfsmittel für eine erweiterte Diagnostik der Zapfen darstellt. Für das Farb-ERG existieren allerdings noch keine Standards. Erhältliche Geräte sind verhältnismäßig teuer und bieten aufgrund firmenspezifischer Systeme weniger Forschungsmöglichkeiten. Im Rahmen dieser Diplomarbeit wurde eine Filtersteuerung für einen Lichtstimulator realisiert, die eine Auswahl der Farbeigenschaften des Stimulusblitzes und der Hintergrundbeleuchtung einer Ganzfeldkugel ermöglicht. Da die verwendeten Filter austauschbar sind, lässt sich das System an geänderte Anforderungen anpassen. Die Filtersteuerung kann sowohl für das Weißlicht-ERG als auch für das Farb-ERG eingesetzt werden, das bei spezifischen Fragestellungen, wie Farbfehlsichtigkeit und Zapfendystrophie, eine Zusatzdiagnostik darstellt. Zentrales Element der Filtersteuerung ist ein Mikrocontroller. Er übernimmt die Ansteuerung der Filterpositionen, die der Ophthalmologe über eine grafische Benutzerschnittstelle auswählt. Über die serielle Schnittstelle erhält der Mikrocontroller die ausgewählten Zielpositionen für alle vier Filterscheiben und berechnet, abhängig von der aktuellen Position, die Schrittfolge, um auf kürzestem Weg die Zielpositionen zu erreichen. Eine automatische Nachjustierung verhindert eine falsche Positionierung (z.B. durch Schrittverlust der Motoren). Die realisierte Elektronik zur Positionierung der Filterscheiben umfasst eine Mehrkanal-Schrittmotorsteuerungseinheit und Infrarot-Lichtschranken zur Kontrolle der codierten Filterpositionen.

(vor 2018) Institut für Managementwissenschaften

Diplomarbeitsposter Arbeiter Markus Maria

Markus Maria Arbeiter

Masterstudium Business Informatics
Abstract:

Der Autor arbeitete zur Zeit der Entstehung dieser Arbeit in einem kleinen Dienstleistungsbetrieb der Beratungsbranche. In dieser Zeit sind folgende Fragen aufgetreten: Wie steht es um das Qualitätsmanagement des Betriebes? Was kann oder sollte verbessert werden? Wofür ist es sinnvoll Ressourcen einzusetzen? Diese Fragen beantwortet diese Arbeit. Zu Beginn werden die wichtigsten Begriffe zum Thema Qualität erläutert. Es gibt nicht die einzig richtige Definition dazu. Qualität von Dienstleistungen wird meist nur sehr subjektiv wahrgenommen. Zur weiteren Beantwortung der oben gestellten Fragen werden in der Arbeit die wichtigsten und aktuellen Konzepte vorgestellt. Systematisches Qualitätsmanagement ist nicht nur in großen Betrieben von Bedeutung. Es nimmt dort häufig einen anderen Stellenwert als in kleinen Unternehmen ein. Gute kleine Unternehmen arbeiten mit einem auf sie zugeschnittenen Qualitätsmanagement. Auf Basis der vorgestellten Konzepte und der beschriebenen Unternehmung wird ein Konzept ausgewählt, dass am besten die Anforderung des Unternehmens berücksichtigt. Das ausgewählte Modell ist das der European Foundation for Quality Management, EFQM. Nach dem Modell der EFQM wird eine Selbstbewertung mit folgenden Zielen durchgeführt: x Aufdecken von Verbesserungspotentialen. x Reproduzierbarkeit und Vergleichbarkeit mit einer neuen Selbstbewertung in ein bis zwei Jahren. x Erfahrung über den Entwicklungsstand des Unternehmens und dessen Reife gewinnen. Als wesentliches Ergebnis wird festgehalten, dass das weit entwickelte Unternehmen die meisten Entwicklungsmöglichkeiten in der Schaffung eines Organisations- und Führungshandbuches und in der quantitativen Messung der Ergebnisse hat. Die Stärken liegen im Bereich der Organisation, Mitarbeiter und Kommunikation. Die angewendeten Methoden sind Literaturrecherche und empirische Forschung auf Basis von Vergleichen unter Berücksichtigung der Rahmenbedingungen. Ein qualitatives Interview des Geschäftsführers zur Erf

Diplomarbeitsposter Besser Andreas

Andreas Besser

Masterstudium Business Informatics
Abstract:

Unternehmen in der Praxis haben erkannt, dass die Balanced Scorecard (kurz BSC) sich als Management-Tool zur Ausrichtung an der Strategie eignet und diese damit operationalisiert werden kann. Probleme ergeben sich dabei, weil es derzeit keine allgemein anerkannten Vorgangsweisen gibt und unterschiedliche Wege zum Erfolg führen. Zielsetzung dieser Arbeit ist anhand eines praktischen Beispiels zu erforschen, wie die Strategie mit Hilfe der BSC umgesetzt werden kann. Nach Abschluss soll ein BSC Konzept verfügbar sein, welches zwar spezifisch für ein Unternehmen ist, jedoch mit geringem Aufwand transformiert werden kann. Das neue Konzept soll auf die derzeitige Strategie Rücksicht nehmen, international übliche Messgrößen verwenden, mit operativen Umsetzungsprojekten verzahnt und einem kontinuierlichen Verbesserungsprozess zugeführt werden können. Die Ergebnisse wurden zusammen mit einem Unternehmen der IT Dienstleistungsbranche erarbeitet. Mit Hilfe der aktuellen Literatur und betriebsinterner Informationsquellen wurde das bestehende BSC Konzept evaluiert und anschließend ein neues BSC Konzept entwickelt. Dabei wurde festgestellt, dass die aktuellste Literatur umfassende Konzepte zur Operationalisierung zur Verfügung stellt. Trotzdem ist diese nicht einfach, weil jedes Unternehmen versuchen muss seine eigene einzigartige Strategie umzusetzen. Dies führt dazu, dass eine gesamte BSC nicht direkt von einem Unternehmen zum anderen übertragen werden kann, sondern immer mit Anpassungen verbunden ist, was auch für das zugrunde liegende Unternehmen gilt. Die Auswahl von gleichen oder ähnlichen strategischen Zielen und Messgrößen ist zwar möglich, müssen aber zu einer eigenen Strategy Map zusammengesetzt und durch eigene strategische Aktionen im Unternehmen unterstützt werden, damit wirklich die eigene Strategie operationalisiert wird. Für das zugrunde liegende Unternehmen stellt das neue BSC Konzept zur Operationalisierung der eigenen Strategie einen direkten Nutzen dar.

Diplomarbeitsposter Edlauer Markus

Markus Edlauer

Wirtschaftsinformatik
Abstract:

Die Arbeit befasst sich mit dem Thema ITIL® (Information Technology Infrastructure Library) und ITSM (Information Technology Service Management) im Allgemeinen und in weiterer Folge mit der praktischen Umsetzung eines ITSM-Projekts der Firma Hutchison 3G Austria (H3G) im Speziellen. ITIL® ist die Information Technology Infrastructure Library, die von der CCTA (Central Computer and Telecommunications Agency), eine britische Regierungsbehörde, entwickelt wurde, und stellt einen Leitfaden zur Organisation der Prozesse und Management Methoden dar, die im Rahmen eines serviceorientierten Unternehmens notwendig sind. Prozesse und Management Methoden, die ITIL® konform organisiert werden, sind derzeit ein weit verbreiteter Industriestandard, bestes Beispiel dafür ist das IT Service Management (ITSM), welches sich in den letzten Jahren als eigenständiger Bereich entwickelte und sich als Industriestandard durchgesetzt hat. Die ITSM Dokumentationsbücher werden so dargestellt, dass alle Management Prozesse erläutert und mit den benötigten Abbildungen grafisch erfasst werden. Die Management Prozesse folgen einer Lebenszyklusperspektive und schaffen dadurch eine Grundlage für die verbesserte Darstellung von ITSM und Geschäftsstrategien. Vorteile und mögliche Schwierigkeiten geben einen Ausblick auf die zukünftige Implementierung des ITSM Projekts. Diese Arbeit betrachtet viele verschiedene Management Prozesse, die abschließend in dem ?Projekt Jupiter? verwendet und umgesetzt werden. Außerdem soll diese Arbeit verdeutlichen, dass die in der Theorie dargestellten Management Prozesse in einem realen Unternehmen (z.B. H3G) zum Einsatz kommen. Nicht alle Management Prozesse konnten im Unternehmen H3G implementiert werden, da im Unternehmen H3G der Faktor Budget und Zeit eine sehr große Rolle spielt und daher gewisse Abstriche vorgenommen werden müssen, um dennoch das Projekt Jupiter realisieren zu können.

Diplomarbeitsposter Ghesla Markus

Markus Ghesla

Masterstudium Business Informatics
Abstract:

Die zunehmende Konkurrenz auf den immer globaler werdenden Märkten bringt für Unternehmen die Notwendigkeit mit sich Optimierungen vorzunehmen. Zusätzlich gewinnen flexible Produktgestaltungen und kurze Lieferzeiten für Kunden entscheidend an Bedeutung. Potentielle Kunden sind weder gewillt lange auf ihr Produkt zu warten, noch für unerwünschte Funktionalitäten Geld auszugeben. Aufgrund der vermehrten Spezialisierung der Unternehmen auf ihre Kernkompetenzen und einer damit verbundenen geringeren Wertschöpfungstiefe ist von diesen Entwicklungen der Hersteller selbst mit allen vorgelagerten Lieferanten betroffen. Es wird das unternehmenszentrierte Denken somit durch ein Denken in Wertschöpfungsketten substituiert. Erfolg haben dabei nur jene Supply Chains, die auch ihre logistische Zusammenarbeit weitestgehend optimieren können. Um ein erfolgreiches Netzwerk zu konzipieren und zu steuern, ist eine optimierte Struktur notwendig. Zur Schaffung einer solchen benötigt es ein beträchtliches Maß an Erfahrungswissen, welches derzeit fast ausschließlich in den Köpfen von Fachleuten schlummert, die aufbauend auf diesen Kenntnissen dann Entscheidungen bei der Realisierung solcher Supply Chains treffen können. Nun ist jedoch der Begriff des Supply Chain Managements auch stark mit dem Einsatz der Informationstechnologie verbunden. Es scheint daher naheliegend, dass nicht nur der operative Betrieb, sondern auch die Planung des Netzwerkes mit Softwareunterstützung geschehen soll. Die Hersteller von Software im Bereich des Supply Chain Managements haben diesen Trend erkannt und bieten nun auch vermehrt Programme an, die eine solche Konzeption und den Vergleich von unterschiedlichen Konzepten ermöglichen. Im Rahmen dieser Arbeit soll der Nutzen einer solchen Lösung genauer untersucht werden. Der Nutzen einer solchen Simulationslösung wird dabei anhand ausgewählter Szenarien einer Automotive Supply Chain beurteilt.

Diplomarbeitsposter Jäger Andreas

Andreas Jäger

Wirtschaftsinformatik
Abstract:

Diese Arbeit beleuchtet eingangs das Phänomen der unternehmensübergreifenden Kooperationen. Neben den allgemeinen Systemgrenzen einer Kooperation werden konkrete Formen sowie Faktoren genannt, die für die Bildung und den Erfolg einer Kooperation grundsätzlich ausschlaggebend sind. Im Fokus der Arbeit steht die Entwicklung eines konkreten Geschäftsmodells für die Kooperation zweier mittelständiger Industrieunternehmen. Ein in der Business Process Modeling Notation entwickeltes Grundmodell einer kooperativen Produktfertigung zeigt dabei auf, wie eines der beiden Unternehmen Kosten reduzieren und seinen Absatz steigern kann. In Kombination mit einem Lizenzmodell ermöglicht dieses Modell beiden Kooperationspartnern eine Win-Win-Situation, die wiederum durch ein Modell der gemeinsamen Finanzierung verstärkt werden kann. Am Ende der Arbeit wirft der Autor die Frage auf, ob sich das Kooperationspotential durch andere Aspekte der Zusammenarbeit - wie beispielsweise durch eine zusätzliche Kooperation im Bereich von Marketing und Vertrieb - noch erweitern ließe.

Diplomarbeitsposter Löberbauer Andreas

Andreas Löberbauer

Masterstudium Business Informatics
Abstract:

Die Arbeit gibt einen Überblick über das Leasinggeschäft im Bereich der Medizin-Technik. Betriebswirtschaftliche und rechtliche Grundlagen werden erörtert und Leasing mit Kauf bzw. Kredit verglichen. Eine Marktanalyse gibt einen Überblick über die Ist-Situation beim Leasing-Gesamtmarkt sowie im Bereich der Medizin-Technik. Strukturierte Gespräche mit Vertretern sowohl der Angebots- als auch der Nachfrageseite (Gespag, Siemens, private medizinische Institute, etc.) sollen zur Ermittlung der konkreten Ausgangssituation beitragen und dann Daten über bestehende Leasinggeschäfte in besagten Bereichen liefern. Die daraus gewonnenen Daten werden zu einem empirischen Befund zusammengefasst und verschiedenen Modellen aus der Praxis gegenübergestellt. Vor allem niedergelassene Ärzte und Ärztezentren bedienen sich gerne des Leasings im Bereich der Medizin-Technik, um ihre Praxen und Ordinationen zeitgemäß und mit modernen Geräten ausstatten zu können, um so den Wünschen und Erwartungen der Patienten zu entsprechen. Der Grundgedanke des Eigentums, des Besitzens einer Sache, tritt nicht mehr in den Vordergrund, sondern das Benutzen steht an vorderster Stelle. Besonders im Bereich der medizinischen Forschung spielt das Leasing eine wichtige Rolle: Medizin-technische Geräte, die nach der letzten Ratenzahlung nicht vom Leasingnehmer durch Erbringung des Restwertes übernommen werden, werden zerlegt und teilweise wieder neu aufbereitet sowie mit neuen Komponenten verbunden (Refurbished Systems). Durch die Weiterverwendung gebrauchter Teile kann der Hersteller Geld einsparen, welches dann in der Forschung und in die Entwicklung neuer Techniken investiert werden kann. Patienten profitieren diesbezüglich von Leasing im Bereich der Medizin-Technik, da immer bessere und modernere Geräte präzisere Diagnosen und größere Heilungschancen bieten.

Diplomarbeitsposter Pfortner Michael

Michael Pfortner

Wirtschaftsinformatik
Abstract:

Die Diplomarbeit „Analyse von Lärmbelastungen mit der PIMEX Methode“ befasst sich mit der mess- und videotechnischen Methode PIMEX. PIMEX ist die Abkürzung für Picture Mixed EXposure, diese Methode dient zur umfassenden Analyse von physikalischen Arbeitsplatzbelastungen und wird in Österreich von der Firma KOHS kontinuierlich weiterentwickelt. Im Zuge weiterer Entwicklungsaktivitäten der Firma KOHS zum Themenkreis Lärmmessung werden in dieser Arbeit die Anforderungen an eine solche Messung ermittelt und in Folge dessen Empfehlungen für ein standardisiertes Vorgehen bei der Messung und Beurteilung erarbeitet. Die zentrale Softwarekomponente kohs.PIMEX.monitor wird hinsichtlich softwareergonomischer Aspekte mittels heuristischer Evaluation untersucht. Zur Entwicklung von Standard Operating Procedures (SOP`s) sind im Rahmen eines Workshops und durch einen Onlinefragebogen Experten und Anwender von PIMEX befragt worden. Zur Anpassung und Erweiterung des bestehenden PIMEX Systems sowohl hinsichtlich der Messung als auch der Ausgabe und Beurteilung der Daten wurden Normen, aktuelle rechtliche Rahmenbedingungen in Österreich und in der EU miteinbezogen.

Diplomarbeitsposter Ringsmuth Stefan

Stefan Ringsmuth

Masterstudium Business Informatics
Abstract:

Diese Diplomarbeit beschäftigte sich mit der interdisziplinären Vernetzung der Kernbereiche Projektmanagement, Didaktik und Business Intelligence. Ziel dieser Diplomarbeit ist es eine Methode zur Verwaltung der Fehlleistungskosten zu Erstellen, sowie mithilfe dieser Daten entscheidendes Wissen für die Zukunft zu generieren. Durch die interdisziplinäre Betrachtungsweise konnte ein optimierter Fehlleistungskostenmanagementprozess mit effektiven Prozessschnittstellen modelliert werden. Zusätzlich wurde dem Prozess eine sich selbst generierende Data Warehouse Lösung angefügt. Diese ermöglicht es aggregierte, tiefgreifende Zusammenhänge zwischen Projekten zu erkennen und zu analysieren, um eine Entscheidungsunterstützung für den Projektmanager anzubieten und essentielles Wissen für Folgeprojekte zu generieren.

Diplomarbeitsposter Schnepf Michael

Michael Schnepf

Masterstudium Business Informatics
Abstract:

Der ¨osterreichische Mobilfunkbereich ist ein stark umk¨ampfter Markt. Aus diesem Grund sind Unternehmen st¨andig bem¨ uht m¨oglichst effiziente Abl¨aufe zu gestalten. Ziel dieser Masterarbeit ist die Optimierung des Managements knapper Endger¨ate bei einem f ¨ uhrenden ¨osterreichischen Mobilfunkunternehmen unter Einsatz von SAP. Dabei wird der Fokus zun¨achst auf die Analyse des aktuellen Zustands gelegt. Nach der Ermittlung der Verbesserungspotentiale erfolgt die Erarbeitungm¨oglicher L¨osungsans ¨atze. Der unter den gegebenen Rahmenbedingungen optimale Ansatz wird im Rahmen einer Konzeption n¨aher ausgearbeitet. Diese Konzeption umfasst sowohl prozessorientierte als auch technische Aspekte. Im Kontext dieser Masterarbeit werden folgende Techniken und Methoden eingesetzt. Das Vorgehen beruht auf dem Rational Unified Process, welcher ein weit verbreitetes Vorgehensmodell darstellt. Analyse und Konzeption basieren auf gesch¨aftsprozessorientierter Modellbildung unter dem Einsatz ereignisgesteuerter Prozessketten. Des Weiteren kommen, im SAP Bereich aktuell noch nicht weit verbreitete, objektorientierte Softwareentwicklungsans¨atze zum Einsatz. Das Ergebnis dieser Arbeit ist eine konzipierte und umgesetzte kundeneigene Anwendung. Diese Anwendung ist im auftraggebenden Mobilfunkunternehmen im Tagesgesch ¨aft produktiv im Einsatz. Sie zeichnet sich durch eine schnellere und vor allem fairere Verteilung knapper Endger¨ate aus. Dabei kann der Ablauf flexibel durch die Fachabteilung gesteuert werden. Eine weitere Eigenschaft ist ein hoher Grad an Nachvollziehbarkeit der durchgef ¨ uhrten Handlungen der beteiligten Akteure. Im Rahmen der Umsetzung konnten interessante Erkenntnisse in der Anwendung objektorientierter Methoden im SAP Bereich gewonnen werden. Des Weiteren k¨onnte sich ein L¨osungsansatz, welcher im Rahmen dieser Arbeit zu Gunsten eines anderen Ansatzes nicht weiter verfolgt wurde, f ¨ ur andere Unternehmen der Branche als durchaus interessant erweisen.

Diplomarbeitsposter Untermoser Jürgen

Jürgen Untermoser

Masterstudium Business Informatics
Abstract:

Die vorliegende Diplomarbeit behandelt das Risikomanagement und die Kernrisiken in agilen Softwareprojekten. Als agile Projektmanagementmethode wird Scrum vorgestellt und auch bei der Umsetzung des begleiteten Softwareentwicklungsprojektes eingesetzt. Ziel der Arbeit ist die Erstellung eines Rahmenwerkes zum Risikomanagement in agilen Umgebungen. Als Basis hierfür dient das COSO II – Framework für unternehmensweites Risikomanagement. Der praktische Einsatz des Rahmenwerkes wird durch ausgewählte Methoden für jeden einzelnen Schritt im definierten Risikoprozess behandelt. Um die gewöhnlichen Projektgrößen zu überwachen und weitere Risikoindikatoren zu identifizieren wird der Goal-Question-Metric-Ansatz verwendet. Durch die Definition von Metriken für die wichtigsten Projektvariablen, die Frühindikatoren darstellen, sollen potentielle Risiken erkannt und überwacht werden.

Diplomarbeitsposter Wihl Ingo

Ingo Wihl

Wirtschaftsinformatik
Abstract:

Diese Arbeit befasst sich mit der operativen Performance von Unternehmen aus Deutschland, Frankreich und der Schweiz, die an der Börse notiert sind und Kapitalerhöhungen (SEO) durchgeführt haben. Dabei werden jene Unternehmen herangezogen, die Bilanzdaten in der Datenbank AMADEUS zur Verfügung stellen, welche den Zeitraum 1997 bis 2006 abdeckt. Die Informationen über die Kapitalerhöhungen der Unternehmen stammen aus der Datenbank DATASTREAM. Als Kennzahlen werden der Cash Flow, das EBITDA und der Return on Assets (ROA) verwendet. Diese Kennzahlen werden von sämtlichen Autoren bereits existierender internationaler Studien und Artikel in diversen Fachzeitschriften verwendet. Die SEO Unternehmen werden dabei mit jenen Unternehmen verglichen, die zum Zeitpunkt 2 Jahre vor und 2 Jahre nach dem Jahr des SEO des Unternehmens, selbst kein SEO durchgeführt haben. Aus den daraus resultierenden möglichen Abweichungen der Kennzahlen können dann Rückschlüsse auf die operative Performance der SEO Unternehmen geschlossen werden. Als Ausgangsbasis für den Datensatz werden in Deutschland 915, in Frankreich 921 und in der Schweiz 241 Unternehmen herangezogen. Für eine optimale Vergleichsbasis werden die Unternehmen u.a. nach ihrer Branchenzugehörigkeit (NACE-Schlüssel) gegliedert. Auch diese Vorgangsweise orientiert sich an bereits existierenden Studien und Artikeln, die anhand des amerikanischen Pendant zum NACE, dem SIC, die Industriezweige sortieren.

(vor 2018) Institut für Computertechnik

Diplomarbeitsposter Kammerer Roland

Roland Kammerer

Masterstudium Technische Informatik
Abstract:

Die heutige Gesellschaft ist von einer Vielzahl von sicherheitskritischen Systemen abhängig, die die Sicherheit der Benutzer und der Umwelt garantieren müssen. Deshalb ist es entscheidend welches Betriebssystem auf solchen sicherheitskritischen Systemen zum Einsatz kommt. Diese Arbeit untersucht einen möglichen Einsatz des Kernels Linux und des Betriebssystems GNU/Linux für sicherheitskritische Systeme. Um Vertrauen zu schaffen, dass GNU/Linux als Plattform für sicherheitskritische Anwendungen eingesetzt werden kann, wurde anhand von relevanter Literatur erforscht, wie Linux entwickelt und getestet wird. Das Open Source Entwicklungsmodell wurde mit traditionellen Entwicklungsmodellen vergleichen. Es wurde analysiert, ob der aktuelle Stand der Entwicklung die Anforderungen von existierenden Normen im Bereich sicherheitskritischer Anwendungen erfüllen kann. Um die Relevanz von Linux für sicherheitskritische Anwendungen noch weiter zu erhöhen, wurden zwei Projekte implementiert. Das erste ist eine vollautomatische Testumgebung für RAID-1 Systeme auf Kernelebene, das zweite ist ein Dateisystem, das schadhafte Daten erkennt und korrigiert. Es zeigt sich, dass das Verfahren der Open Source Entwicklung, das von der GNU/Linux Entwicklergemeinschaft eingesetzt wird, kein limitierender Faktor ist. Die meisten Standards, die sich mit sicherheitskritischen Systemen beschäftigen, sind flexibel genug, um Systeme, die auf neuen und offenen Wegen entwickelt wurden, zu zertifizieren. Dies führt zum Ergebnis, dass Linux als Plattform für sichheitskritische Anwendungen in Betracht gezogen werden sollte. Die Entwicklung von Linux hat in den letzen Jahren einen großen Fortschritt gemacht, der Linux reif für den Einsatz in sicherheitskritischen Systemen macht.

Diplomarbeitsposter Riediger Christiane

Christiane Riediger

Masterstudium Wirtschaftsingenieurwesen Informatik
Abstract:

Durch den Einsatz von Technik wird die Arbeit von Menschen unterstützt und erleichtert. Der Drang nach Robotern, die diese Arbeiten selbstständig durchführen, wir immer größer. Die Herausforderung für autonome, mobile Roboter besteht darin, neue Situationen zu interpretieren und angemessen in unbekannten Umgebungen zu reagieren. Dafür muss der Roboter seine Umgebung wahrnehmen und aufgrund von bereits erlernten Situationen neue Entscheidungen treffen können. Für die Entscheidungsfindungseinheit gibt es verschiedene Ansätze. Das ARS Team am Institut für Computertechnik entschieden sich für die Umsetzung psychoanalytischer Modelle in die Technik. In seinem Modell unterscheidet S. Freud zwischen den drei Instanzen Ich, Es und Überich. Das Es ist jene Instanz, die für menschlichen Triebe zuständig. Das Überich ist jene Instanz, die Gebote und Verbote beinhaltet. Das Ich ist jene Instanz, die die Verbindung zur Außenwelt darstellt und aufgrund von äußerer Wahrnehmung und Verboten bzw. Geboten des Überich die Triebe und Wünsche des Es versucht zu befriedigen. Des weiteren verwendet Freud in diesem Modell Konzepte wie Emotionen und Gefühle, die ebenfalls die Entscheidungsfindung beeinflussen. Die Entscheidungsfindung, welche von Trieben, Wünschen, etc. beeinflusst wird, bringt auch einige Probleme mit sich. Ein Trieb, der aufgrund von äußeren Gegebenheiten nicht befriedigt werden kann, wird Emotionen negativ beeinflussen. Weiters können dadurch Aktionen blockiert werden, die es ermöglichen würden den Trieb zu einem späteren Zeitpunkt zu befrieden. Als eine mögliche Lösung für dieses Problem ist der Einsatz von psychoanalytischen Abwehrmechanismen, die das Thema dieser Arbeit darstellen. Diese sind ebenfalls von S. Freud entdeckt und erforscht worden. A. Freud hat sich nach seinem Tod mit seiner Theorie weiter beschäftigt und erweitert. Um psychoanalytischen Abwehrmechanismen einsetzen zu können, wurden unterschiedlichen Mechanismen analysiert, ein allgemeines technische

(vor 2018) Institute of Telecommunications

Diplomarbeitsposter Rieckh Jakob

Jakob Rieckh

Masterstudium Visual Computing
Abstract:

Pulsar ist eine gänzlich dezentralisierte Peer-to-Peer Streaming Software zum Verbreiten und Konsumieren von beliebigen Audio und Video Daten. Das System wird entwickelt und betreut von der Distributed Computing Group der ETH Zürich. Das Ziel der Diplomarbeit bestand nun darin, die Funktionalität von Pulsar auf skalierbare Video-Streams zu erweitern. Dies hat den entscheidenden Vorteil, dass flexible zwischen Bitrate und Videoqualität abgewogen werden kann. Als Grundlage der Implementation diente der Scalable Video Coding (SVC) Standard als Erweiterung des H.264/AVC Standards. Die Arbeit beleuchtet unter anderem die Vorteile von SVC mit speziellem Bezug auf Peer-to-Peer Netzwerke. Darüber hinaus werden die Modifikationen diskutieren, die nötig in Pulsar waren um SVC zu integrieren. Abschließend zeigen in Pulsar gewonnene Resultate einen Leistungsvergleich zwischen SVC und traditionellem H.264/AVC.

In Zusammenarbeit mit anderen wissenschaftlichen Einrichtungen

Universität Wien

Diplomarbeitsposter Battisti Martin

Martin Battisti

Masterstudium Informatikmanagement
Abstract:

In der Magisterarbeit wird geprüft, ob C++ als Unterrichts-Programmiersprache geeignet ist. Dabei sind drei Punkte wichtig: Didaktik, Theorie und Praxis. Den größten Teil nimmt dabei die Praxis ein, welche meist durch didaktische Ansätze ergänzt wird. Die Theorie welche vor allem die Eigenschaften von C++ erklärt stellt den kleinsten Teil. Obwohl dieser die Magisterarbeit einleitet, weist er schon darauf hin, dass C++ nicht als Schulprogrammiersprache bezeichnet werden kann. Beispielsweise ist C++ eine abstrakte Programmiersprache, bei der ein Typ nicht immer eine feste Größe hat. So kann ein Integer auf verschiedenen Systemen unterschiedlich groß sein. Weiters bietet C++ viele Freiheiten, welche für Programmierer oft vorteilhaft sind. Schüler kann sie jedoch oftmals überfordern. In C++ gibt es auch keine standardisierte grafische Oberfläche und auch der Umfang der Programmiersprache ist sehr groß. Auch andere Eigenschaften empfehlen C++ nicht für den Unterricht. Die Praxis vermittelt die wichtigsten Konzepte von C++, welche in der Schule gelehrt werden können: Typen, Operatoren, Kontrollstrukturen, ... Dabei werden sicherlich nicht alle Lehrpersonen die selben lehren, da C++ einen sehr großen Sprachumfang hat. Am Schluss werden auch einige Ansätze für Lehrpersonen beschrieben, welche in der Schule förderlich sein können. So müssen sie Schüler motivieren können und die Beispiele möglichst anschaulich erklären können. Auch weitere Bereiche wie Flexibilität und Variabilität sind wichtig. Für die Schulen ist C++ jedoch sehr selten geeignet. In einigen technischen Schulen wird C++ jedoch eingesetzt. Dort sollte es jedoch nur gelehrt werden, wenn es seine Vorteile ausspielen kann. Dies kann beispielsweise ein Hardware-nahes Unterrichtsfach wie Elektronik sein. Meistens sollten im Informatikunterricht jedoch einfachere Programmiersprachen eingesetzt werden.

Diplomarbeitsposter Baumann Andreas

Andreas Baumann

Wirtschaftsinformatik
Abstract:

Die IT-Security von IT-Systemen hat durch die technologische Entwicklung der IT-Systeme einen Wandel widerfahren. Stand in der Vergangenheit die Ausfallssicherheit der Hard/Software im Mittelpunkt, so stehen in der heutigen Zeit die Daten der IT-Systeme im Mittelpunkt der Aufmerksamkeit. Die Anforderung an die IT-Security ist primär die Gewährleistung der Verfügbarkeit, der Integrität und der Vertraulichkeit der Daten und der Schutz des betrieblichen IT-Systems vor externen bzw. internen Bedrohungen. Das in dieser Arbeit beschriebene infrastrukturbasierte Sicherheitskonzept zeigt eine Vorgehensweise, wie eine Sicherheitspolitik in mehreren Schritten mit Hilfe eines Sicherheitskonzeptes umgesetzt werden kann. Dadurch ist es möglich alle definierten Sicherheitsmaßnahmen in diesem Sicherheitskonzept den Zielen und Anforderungen der Sicherheitspolitik zuzuordnen. Es ist somit nicht mehr möglich, dass sogenannte „Insellösungen“ bzgl. IT-Security entstehen, welche nicht in der Sicherheitspolitik inkludiert sind. Zusätzlich werden die Sicherheitsziele der Sicherheitspolitik durch die Detaillierung, welche in den einzelnen Schritten erfolgt, genauer spezifiziert und analysiert. Die gewählte Vorgehensweise für die Erstellung eines infrastrukturbasierten Sicherheitskonzeptes wird in dieser Arbeit an Hand eines Praxisbeispiels beschrieben und durchgeführt. Nach der Erstellung des infrastrukturbasierten Sicherheitskonzeptes kann mit Hilfe von Checklisten der Reifegrad des Sicherheitsmanagements festgestellt werden. Dadurch wird es möglich die Sicherheitsmanagements verschiedener Unternehmen in der gleichen Branche zu vergleichen und eine Reihung vorzunehmen. Zusätzlich wird definiert, welche Sicherheitsanforderungen noch fehlen um einen höheren Reifegrad für das Sicherheitsmanagement zu erreichen. Abgeschlossen wird diese Arbeit mit einer Zusammenfassung und einem Ausblick in die Zukunft.

Diplomarbeitsposter Kurter Cenk

Cenk Kurter

Wirtschaftsinformatik
Abstract:

Ziel dieser Diplomarbeit ist es, vorhandene Ansätze zu Kundenbeziehungsmanagement-Techniken und ihre Unterstützung mit Fuzzy-Logik-basierten Techniken zu analysieren. Um zu demonstrieren, wie dieser Ansatz in der Praxis funktionieren kann, wurde ein kleiner Prototyp implementiert. Eine primäre Herausforderung der sich Firmen stellen müssen, ist heute, wie sie ihre Kundendatenbanken zu einem Wettbewerbsvorteil machen, indem sie Massen vorhandener Daten in nützliche Information umwandeln. Als eine der führenden Geschäftsstrategien der heutigen Firmen strebt Kundenbeziehungsmanagement (CRM) an, auf rentable Kunden zu zielen, um die Firmenerträge zu erhöhen. Technologisch gesehen, orientiert sich CRM hauptsächlich an verschiedenen Analysetechniken zur Identifizierung rentabler Kunden durch die Verwendung ihrer historischen Daten. Die schnelle Entwicklung von Data Mining-Methoden und –Techniken ermöglicht unter Verwendung großer Mengen von Kundendaten, das Wissen aus den ! Daten zu extrahieren. Das aus diesen Daten extrahierte Wissen kann zur Unterstützung des Marketing-Entscheidungsprozesses verwendet werden. Daher haben viele Firmen bereits Data Mining als ein wichtiges Verfahren erkannt, das eine Auswirkung auf ihre Leistung hat. Data Mining kann als der Prozess der nicht trivialen Extraktion von impliziten, vorher unbekannter und potentiell nützlicher Information, wie Wissensrichtlinien, -begrenzungen und -regelmäßigkeiten aus in Repositories gespeicherten Kundendaten unter Verwendung von Mustererkennungstechnologien sowie von statistischen und mathematischen Techniken angesehen werden. Segmentierung ist eine der Hauptfunktionen von Data Mining. Das ist der Grund, warum sich die Diplomarbeit auf die Clusteranalyse konzentriert, welche vermutlich die am meisten angewandte Methodologie für Kundenanalyse in CRM ist. Sie wird verwendet, um verschiedene Typen von Kunden in verschiedenen Segmenten zu identifizieren. Dementsprechend versuchen! Firmen, ihre Kunden zu segme

Diplomarbeitsposter Lang Hanspeter

Hanspeter Lang

Wirtschaftsinformatik
Abstract:

Diese Arbeit behandelt, im übergeordneten Sinne, die Grundlagen der visuellen Kommunikation und Mediengestaltung. Dabei liegt der Fokus darauf, wie Information visuell aufbereitet werden soll, damit sie vom Empfänger in beabsichtigter Weise wahrgenommen wird. Eine konkrete Veranschaulichung erfolgte anhand der Gestaltung eines modularen Corporate Designs für die Fakultät für Informatik der Universität Wien. Als Basis für die praktische Umsetzung werden die Themengebiete Corporate Design im Kontext der Corporate Identity, die menschliche Kommunikation und Wahrnehmung, die Lehre der Zeichen und Zeichenbeziehungen, die Strukturierung und Wirkung der elementaren Gestaltungselemente „visueller“ Sprache und weiterführende Aspekte der visuellen Gestaltung wie Helligkeit, Farbe und Schrift in ihren theoretischen Grundzügen näher betrachtet. Aufbauend auf diesen Grundlagen, wird das Corporate Design umgesetzt. Dabei werden zuerst die einzelnen Corporate Design Elemente entworfen und mittels Strukturierungsregeln gegliedert. Die Beschreibung dieser Elemente und die Dokumentation für die Anwendung wird in Form einer Corporate Design Richtlinie festgehalten. Als Schlussfolgerung ist festzuhalten, dass aufgrund des immer höher werdenden Informationsaufkommens, und der damit einhergehende Notwendigkeit bezüglich einer zielführenderen Informationsaufbereitung, die Kenntnisse dieser Grundlagen, im Sinne einer effizienteren Darstellung von Information, an Bedeutung zunehmen.

Diplomarbeitsposter Lustig Thomas

Thomas Lustig

Wirtschaftsinformatik
Abstract:

Diese Diplomarbeit steht im Kontext des GridMiner Projekts am Institut für Scientific Computing der Universität Wien. Das GridMiner Projekt hat den Schwerpunkt auf der Wissensextraktion aus grossen Datenbasen (KDD Prozess). Die Aufgabe der Datenaufbereitung wird meistens auf einer gewöhnlichen Workstation ausgeführt, da für eine hohe Qualität des Ergebnisses oft eine manuelle Bearbeitung nötig ist und automatische Methoden nur bedingt eingesetzt werden können. Allerdings ergeben sich bei der Bearbeitung auf der Wokstation wesentliche Einschränkungen gegenüber dem Grid bezüglich des verfügbaren Speichers (RAM) und der Rechenleistung. Die neu entwickelten Softwarekomponenten verfolgen einen out-of-core Ansatz und zeigen eine signifikant bessere Skalierung beim Verarbeiten von Daten als das bisher möglich war. Zur Optimierung der Rechenzeit auf der Workstation, wurden die nötigen statistischen Berechnungen der Rohdaten vom Client zum Server hin verlagert. Die Statistiken werden jetzt im Zuge eines definierten Workflows mittels des neu entwickelten Statistikmoduls berechnet und das Ergebnis im Anschluss als XML Daten zur Verfügung gestellt. Der Client kann dazu das Statistikmodul feingranular konfigurieren um unnötigen Rechenaufwand auf der Serverseite zu vermeiden. Bereits existierende XML Bibliotheken und APIs wurden hinsichtlich ihres Speicherverbrauchs und der Zugriffsmöglichkeiten innerhalb der XML Struktur evaluiert. Dabei konnte keine Java Bibliothek gefunden werden, die sowohl wahlfreien Zugriff und minimalen Speicherverbrauch bietet. Um grosse WebRowSet Dateien verarbeiten zu können wurde die bereits vorhandene WebRowSet Schnittstelle von Java neu implementiert. Dabei wurde eine neue Indexierungsmethode gewählt um den benötigten Speicher gering zu halten.

Diplomarbeitsposter Niessner Stefan

Stefan Niessner

Wirtschaftsinformatik
Abstract:

Die hier beschriebene Diplomarbeit umfaßt einen theoretischen und einem praktischen Teil. Die Arbeit befasst sich mit der Implementierung eines persönlichen Agenten in Ubiquitous Computing Umgebungen, der die Benutzerunterstützung mittels eines “goal-oriented” Ansatzes realisieren soll. Dieser Ansatz wurde deshalb gewählt, weil er menschliche Intentionen gut abbilden kann. Dabei soll der Agent durch a) Beobachtung, b) Lernen, c) explizite Interaktion mit dem Benutzer die Assistenzfunktionen wahrnehmen und laufend adaptiert werden. Des Weiteren werden einige, bereits vorhandene verwandte Arbeiten aus dem Bereich “Software Agents” und “Implizite Interaktion und Personalisierung” vorgestellt. Das hier entwickelte Programm baut auf Java und dessen Agentenframework JADE auf. Zielplattform sollen Personal Digital Assistants und SmartPhones sein. Es werden drei Use Cases für Meetings beschrieben, die bei dem hier entwickelten Programm zum Einsatz kommen. Die Funktion des Agenten umfasst neben einfachen Aufgaben wie das Darstellen einfacher Informationen auch komplexere Unterstützung ausgewählter Use Cases. Es sind drei Use Cases für Meetings vorgesehen, die eine gekapselte Funktion (Erinnerung eines Benutzers), eine kooperative Funktion (Änderung der Meeting Agenda), sowie ein Fall, der langfristige Ziele betrifft (Karriereleiter) dargestellt. Bei der Erinnerungsfunktion geht es darum, dass der Vortragende vom Agenten notifiziert wird, wenn er in Gefahr läuft, seine ihm zugewiesene Redezeit, zu überschreiten. Beim Use Case Agenda wird die Unterstützung des Agenten bei der abgestimmten Einbringung von Agendapunkten beschrieben. Die Aufgaben umfassen konsistente, koordinierte Änderung zwischen mehreren Benutzer-Agenten und Notifizierung der Benutzer. Beim Use Case Karriereleiter wird eine Funktion zur Unterstützung langfristiger Ziele, wie der berufliche Aufstieg, durch einen Agenten vorgeschlagen.

Diplomarbeitsposter Tiefenbacher-Riedl Renate

Renate Tiefenbacher-Riedl

Wirtschaftsinformatik
Abstract:

Die hier vorliegende Arbeit thematisiert die Auswirkungen einer Verschmelzung auf die vortragsfähigen Verluste einer übertragenden bzw. übernehmenden Körperschaft. Das Umgründungssteuergesetz geht vom Grundsatz des objektbezogenen Übergangs des Verlustabzugs aus. Der vortragsfähige Verlust der übertragenden Körperschaft geht insoweit auf die übernehmende Körperschaft über, als auch das verlustverursachende Vermögen auf sie übergeht. Bei der übernehmenden Körperschaft ist der eigene vortragsfähige Verlust nur bei Vorhandensein des verlustverursachenden Vermögens weiterhin abzugsfähig. Zusätzlich normiert der Gesetzgeber die Vergleichbarkeit des verlustverursachenden Vermögens zum Zeitpunkt des Verschmelzungsstichtages mit dem Vermögen zum Zeitpunkt der Verlustentstehung. Bei Vorliegen des Mantelkauftatbestands kommt es zum Wegfall des Verlustabzugs. Zur Vermeidung der Doppelverlustverwertung bei Konzernverschmelzungen kürzt der Gesetzgeber die vortragsfähigen Verluste der übertragenden Körperschaft um Teilwertabschreibungen auf die Beteiligung der übernehmenden Körperschaft. Es soll nun die Frage behandelt werden, inwieweit die verschmelzenden Körperschaften durch Wahl des Verschmelzungszeitpunktes bzw. der Verschmelzungsrichtung die Folgen dieser Verlustabzugsregelung umgehen bzw. mindern können.

Diplomarbeitsposter Todorov Diman

Diman Todorov

Masterstudium Computational Intelligence
Abstract:

In den letzten Jahren ist der semantic desktop als Mittel zum Umgang mit dem Überfluss an Information aus verschiedenen Quellen intensiv entwickelt worden. Dennoch wurden kaum Interaktionskonzepte erarbeitet, die einer durchschnittlichen Benutzerin den Umgang mit einem semantischen desktop erleichtern. Diese Diplomarbeit schlägt solche Interaktionskonzepte vor, wobei diese nicht auf den semantic desktop eingeschraenkt sind sondern auf semantische Informationssysteme generalisiert werden können. Im Kontext der Diplomarbeit wird die virtuelle desktop-Metapher leicht abgeändert um eine semantische Anreicherung bewerkstelligen zu können. Files sind nun semantisch und werden daher Siles genannt. Zwischen Siles gibt es semantische links die Slinks genannt werden. Ordner werden zur Gänze mit herkömmlichen Tags und Kategorien ersetzt. Die Kategorien sind in einer Ontologie angeordnet. Da es keine Ordner gibt, gibt es auch keine Verzeichnispfade. Stattdessen werden Filter verwendet die am besten als dynamische Suchabfragen beschrieben werden können. In der Diplomarbeit werden verschiedene Implementationen von user interfaces für dieses Abstraktionsmodell vorgestellt. Im Konkreten wurden drei Filter Interfaces implementiert: ein einfaches, das nur mit einem logischen und operiert, eines das auf Venn Diagrammen aufbaut und ein eher komplexes, das eine facettierte Abfragenkonstruktion implementiert. Da die Ergebnisse einer Suchanfrage sehr viel sein können war es notwendig auch Modelle für die Navigation von Ergebnislisten zu implementieren. Davon wurden wiederum drei implementiert: eine simple Liste, eine dynamische Tabelle und eine chronologische Ansicht. Weiters wird eine intuitive Schnittstelle zur Navigation von Ontologien für information retrieval vorgestellt. Eine formelle usability Evaluierung wurde zwar vorgenommen jedoch ist es notwendig weitere Studien vorzunehmen bevor die vorgeschlagenen Konzepte produktiv eingesetzt werden können.

Johannes Kepler Universität Linz

Weitere ausgestellte AbsolventInnen dieses Arbeitsbereichs:
Adedayo Adegbite
Diplomarbeitsposter Haberfellner Alexander

Alexander Haberfellner

Wirtschaftsinformatik
Abstract:

Im Zuge der Globalisierung und der anwachsenden länderübergreifenden wirtschaftlichen Verflechtungen steigt die Relevanz von Verhandlungen in einem internationalen und multi-kulturellen Kontext. Aus diesem Hintergrund steigt die Notwendigkeit einer methodischen, wissenschaftlichen Auseinandersetzung mit dem Gegenstand „interkulturelle Verhandlungen“. In dieser Arbeit sollen Unterschiede, Merkmale und Eigenheiten, die sich bei Verhandlungen zwischen Personen aus Großbritannien und Österreich ergeben, aufgezeigt und ein Leitfaden erstellt werden, welcher Empfehlungen für praktische Verhandlungsführungen präsentiert. Die Arbeit besteht aus zwei Hauptteilen: - einem theoretischen, allgemeinen Teil, welcher sowohl für Österreichern/innen als auch für Briten/innen gilt. Dieser beschäftigt sich mit den Grundlagen von kulturvergleichenden Studien und von Verhandlungen, sowie dem Einfluss von Kultur auf Verhandlungen und grenzt die zugehörigen Begrifflichkeiten ab. -Und einem empirischen Teil welcher durch die Analyse von Leitfadeninterviews auf die Forschungsfragen eingehen, und somit auch eine Empfehlung für die praktische Verhandlungsführung zwischen Österreich und Großbritannien darstellen soll. Gegenstand der Forschung wird primär das kulturgeprägte Wirken und Handeln der beiden Staaten Österreich und Großbritannien sein, welche als zwei Akteure von gemeinsamen Verhandlungen betrachtet werden. Grundsätzlich ist ein methodischer Zugang dieser Arbeit über zwei Linien vorgesehen. Die erste Linie ergibt sich aus der Analyse von bereits existierenden Daten von kulturvergleichenden Studien. Hier wird ein Vergleich zwischen den Ländern anhand von Kulturdimensionen bzw. Kulturstandards durchgeführt, was primär zu einem deskriptiven Ergebnis führt. Die zweite methodische Linie bilden Experteninterviews mit Österreichern/innen, welche spezielle Erkenntnisse über kulturbedingte Verhandlungssituationen liefern sollen.

Medizinische Universität Wien

Diplomarbeitsposter Bointner Karl

Karl Bointner

Masterstudium Medizinische Informatik
Abstract:

Durch die zunehmende Spezialisierung der modernen Medizin gewinnt die fachübergreifende Kooperation von Gesundheitsdienstleistern in der Behandlung gemeinsamer Patienten zunehmend an Bedeutung. Eine wesentliche Voraussetzung für die Effizienz einer derartigen integrierten Versorgung ist der elektronische Austausch von Gesundheitsdaten zwischen den beteiligten Akteuren. Um die übermittelten Daten empfängerseitig maschinell weiterverarbeiten zu können, muss der Datenaustausch auf semantisch interoperabler Basis erfolgen. Die Duale Modellierung ist eine in der Fachwelt viel zitierte Technik für einen semantisch interoperablen Gesundheitsdatenaustausch. Neben der bereits relativ ausgereiften Anwendung der Dualen Modellierung in Form des sogenannten "Archetyp"-Ansatzes arbeitet die amerikanische Standardisierungsorganisation HL7 seit einigen Jahren an einem ähnlichen Konzept, dem "Template"-Ansatz. Der Template-Ansatz wird in der Fachliteratur zwar regelmäßig genannt, wurde bisher hinsichtlich seiner Methodik, üblicherweise mit Verweis auf den unfertigen Zustand der Arbeiten, jedoch nur oberflächlich beschrieben. Ziel dieser Arbeit ist es, den Anwendungsbereich von HL7 Templates sowie den aktuellen Entwicklungsstand der zugrunde liegenden Methodik zu beleuchten. Zu diesem Zweck wird nach einem Überblick über die Technik der Dualen Modellierung die kürzlich von HL7 publizierte Spezifikation des Template-Ansatzes dargestellt. Weiters werden drei im internationalen Gesundheitsdatenaustausch bereits praktisch erprobte Implementierungs­leitfäden von auszutauschenden medizinischen Dokumenten, welche bisher ein ähnliches Ziel verfolgten wie künftig die HL7 Templates, auf Basis eines einheitlichen Kriterienkatalogs analysiert und der aktuellen Template-Methodik gegenüber gestellt. Die Arbeit schließt mit einem Vergleich des Template-Ansatzes mit dem bereits erwähnten Archetyp-Ansatz, wobei hierfür das HL7 Template Modell und das Archetyp Objekt Modell gegenübergestellt werden.

(alt) E388 - Institut für Breitbandkommunikation

Diplomarbeitsposter Wallentin Lukas

Lukas Wallentin

Masterstudium Informatikmanagement
Abstract:

Durch die laufenden Fortschritte in der Entwicklung drahtloser Kommunikationssysteme sowie der immer kleineren und leistungsstärkeren Computersysteme nimmt die Verbreitung mobiler Geräte fortwährend zu. Statistisch gesehen besitzt zum aktuellen Zeitpunkt jeder Österreicher zumindest ein Handy. Auch weitere mobile Geräte wie etwa Pocket PC oder Laptops sind keine Seltenheit mehr. Solche Geräte können verwendet werden um Ad-Hoc Netze zu bilden. In einem solchen Netz agiert jeder der frei beweglichen Knoten als Router. Um Fragestellungen über solche Netze zu beantworten, bietet es sich aus praktikablen Gründen an, solche Netze zu Simulieren. Diese Arbeit beschäftigt sich mit der Simulation dieser Netze. Neben der Behandlung des theoretischen Hintergrundes wird ein Framework zur Simulation von mobilen Ad-Hoc Netzen vorgestellt. Dieses Framework baut auf dem Simulator des Instituts für Breitbandkommunikation auf. Es zeichnet sich neben der einfachen Erweiterbarkeit vor allem durch die Unterstützung großer Netze aus. Weiters wird die Verwendbarkeit des Frameworks als Unterrichtswerkzeug behandelt.

(alt) E372 - Institut für elektrische Antriebe und Maschinen

Diplomarbeitsposter Prüggler Wolfgang

Wolfgang Prüggler

Masterstudium Informatikmanagement
Abstract:

Das zentrale Ziel dieser Arbeit liegt in der Analyse der Akzeptanz einer durchgeführten digitalen Aufbereitung der Lehrveranstaltung „Energiewirtschaft – Vertiefung“ an der TU-Wien. Diese alternative Art der Lehrveranstaltungsbegleitung versuchte, den Studenten die Wiederholung der Lehrinhalte sowie die Vorbereitung auf die Lehrveranstaltungsprüfung zu erleichtern. Dazu wurden die einzelnen Vorlesungsblöcke als High Definition Videos aufgezeichnet, nachbearbeitet und in Anlehnung an prüfungsrelevante Fragen aufbereitet. Für den gesamten Zeitraum der Vorlesung wurde es den Studenten in weiterer Folge ermöglicht, die relevanten Inhalte in kompakter Form als Video- und Audiodateien von der Lehrveranstaltungshomepage herunterzuladen.Weiters sah das System der Lehrveranstaltung vor, nur die Hälfte der prüfungsrelevanten Fragen als Download anzubieten, um einen Aufwandsvergleich mit einer konventionellen Prüfungsvorbereitung (selbstständiges Exzerpieren aus einer Vielzahl an Präsentationsfolien) ableiten zu können. Nach Abschluss der Lehrveranstaltung wurde neben der Zufriedenheit der Studenten auch die Anwendbarkeit der Systematik an unterschiedlichen Lehrveranstaltungs-modi (z.B. Vorlesung, Vorlesung mit Übung oder Laborübung) analysiert. Erfreulicherweise nutzten 100% der LVA Teilnehmer das Angebot der audiovisuellen Aufbereitung einzelner Prüfungsfragen. Es traten kaum Probleme in der Konzeptumsetzung auf, die Downloads seitens der Studenten funktionierten zu 90% fehlerfrei und eine Verbesserung des Lernprozesses konnte erreicht werden. Vergleicht man die Durchschnittswerte der erreichten Punkteanzahl für audiovisuell unterstützte Prüfungsfragen mit jenen der konventionell ausgearbeiteten Fragen, so kann ein deutlich besseres Abschneiden der ersten Fragengruppe beobachtet werden. Der Punktevorteil bei multimedial aufbereiteten Inhalten liegt bei etwa 0,7 Punkten je Prüfungsfrage. Auch ein Vergleich mit einer Vorjahresprüfung (2008), in der 2 Fragen eng themenverwand