510 Mathematik
Refine
Document Type
- Master's Thesis (15) (remove)
Keywords
- Algorithmus (1)
- Deutschland (1)
- Diffraktives optisches Element (1)
- Diskrete Optimierung (1)
- Elliptische Kurve (1)
- Fuzzy-Optimierung (1)
- Graph (1)
- Graphentheorie (1)
- Hypergraph (1)
- Ising-Modell (1)
Institute
In this work a novelty detection framework provided by M. Filippone and G. Sanguinetti is considered, which is useful especially when only few training samples are available. It is restricted to Gaussian mixture models and makes use of information theory, applying the Kullback-Leibler divergence. In this work two variations of the framework are presented, applying the symmetric Hellinger divergence and a statistical likelihood approach.
Ziel der Masterarbeit ist die Untersuchung des Einflusses des Solvency II- und Schweizer Solvenztest-Standardmodells auf die Bestimmung des Risikokapitalbedarfs eines Lebensversicherungsunternehmens. Als Einführung werden zu diesem Zweck die verwendeten Berechnungsmethoden dargestellt und erläutert. Anschließend erfolgt eine quantitative Gegenüberstellung der Richtlinien und Vorschriften unter ausschließlicher Berücksichtigung der versicherungstechnischen Risiken anhand eines Musterlebensversicherungsunternehmens. Auf Grundlage der gewonnenen Erkenntnisse wird eine Allokation des Risikokapitalbedarfs durchgeführt.
Diese Arbeit beschäftigt sich mit dem Ising-Polynom, einem Graphenpolynom, das von einem physikalischen Modell abgeleitet ist. Es werden verschiedene Darstellungen des Polynoms, seine Beziehungen zu anderen Graphenpolynomen und in ihm enthaltene Grapheninvarianten vorgestellt. Weiter werden, insbesondere für spezielle Graphenklassen, Berechnungsmöglichkeiten beschrieben und der Rechenaufwand betrachtet.
Die vorliegende Arbeit befasst sich mit einem relativ jungen Gebiet innerhalb der angewandten Mathematik, dem Compressed Sensing. Darin geht es zum einen um die Frage, wie man einen dünn besetzten, hochdimensionalen Vektor durch lineare Projektionen in seiner Dimension reduzieren kann, ohne dass dabei Information verloren geht. Dieses "Sensing"-Verfahren ist nicht-adaptiv, d.h. es soll für jeden dünn besetzten Vektor mit der gleichen Anzahl von null verschiedener Elemente gleichermaßen funktionieren und auch nicht während des Prozesses auf bereits berechnete Projektionen zurückgreifen. Zum anderen geht es um die Rekonstruktion des dünn besetzten Vektors aus diesen Projektionen, welche wesentlich weniger in der Zahl sind, als die Dimension des gesuchten Vektors. Das führt auf ein unterbestimmtes lineares Gleichungssystem, das zunächst unendlich viele Lösungen hat. Zusammen mit der Forderung der Dünnbesetztheit an die Lösung führt dies auf ein NP-schweres kombinatorisches Optimierungsproblem. Die Theorie von Compressed Sensing bietet nun Antworten auf die Fragen, wann dieses Problem l¨osbar ist und wie man es mit effizienten Verfahren der Optimierung praktisch lösen kann. Ziel dieser Arbeit ist es, einen einführenden Überblick in das Sparse Reconstruction Problem zu geben und eine Auswahl wichtiger theoretischer Resultate zu präsentieren. Dabei wird zum einen die konvexe Relaxation des NP-schweren Problems betrachtet, welche mit Methoden der konvexen Optimierung effizient gelöst werden kann. Zum anderen werden schnelle Approximationsverfahren betrachtet, welche das kombinatorische Problem direkt approximativ lösen. Dabei wird sich auf eine Auswahl beschränkt, die keinen Anspruch auf Vollständigkeit erhebt, da es kurz nach Etablierung der Theorie eine wahre Explosion an Veröffentlichungen auf diesem Gebiet gab. Dennoch werden die wichtigsten Resultate und Ansätze präsentiert und durch simulative Berechnungen bestätigt und illustriert, wobei die präsentierten Verfahren zum großen Teil selbst implementiert wurden.
Diese Masterarbeit beschäftigt sich mit verschiedenen Modellen von Zufallsgraphen für biologische Netzwerke. Nach einer kurzen Einführung, in der benötigte graphentheoretische Begriffe sowie Anwendungsbeispiele der Graphentheorie erläutert werden, erfolgt die Vorstellung von drei einfachen Zufallsgraphenmodellen: das Erd ˝ os-Rényi-Modell, das Gilbert-Modell und das p1-Modell. Außerdem werden in diesem Kapitel zwei spezielle Zufallsgraphenmodelle, zum einen die Exponential Random Graph Models und zum anderen die Small-World Models, ausführlich dargestellt. Anschließend werden alle Modelle für ein konkretes biologisches Netzwerk, das Protein-Protein-Interaktions-Netzwerk des Bakteriums Escherichia coli, auf ihre Anwendbarkeit überprüft und diesbezüglich bewertet.
Die vorliegende Arbeit befasst sich mit der hierarchischen Partitionierung von Hypergraphen, die im Prozess der Chipentwicklung durch Netzlisten einer integrierten Schaltung entstehen. Das Problem der Partitionierung ist dabei NP-schwer, sodass Heuristiken für die entsprechende Partitionierung verwendet werden. Erschwerend kommt hinzu, dass die Hypergraphen meist eine große Ordnung, mehr als 10^5 Knoten, aufweisen. Ziel dieser Arbeit ist es, ein Modell für eine derartige Partitionierung zu erstellen, welches Resultate aus vorangegangenen Arbeiten berücksichtigt und die Platzierung der Elemente des integrierten Schaltkreises im Fokus hat. Des Weiteren wird die Tauglichkeit vorhandener Algorithmen auf die erwähnte Modellierung geprüft, weiter werden vorhandene Algorithmen modifiziert und eigene Algorithmen konzipiert. Dabei wird darauf geachtet, dass die Algorithmen auf Hypergraphen mit großer Ordnung anwendbar sind. Diese Algorithmen werden dazu auf Hypergraphen des Benchmarks "ISPD 05/06" angewandt.
In dieser Arbeit wird der Neural Gas mit funktionalen Prototypen vorgestellt, der sich insbesondere zur Analyse von funktionalen Daten eignet. Hierbei werden die Prototypen als diskrete Repräsentanten einer Funktion interpretiert bzw. als Linearkombination von Basisfunktionen dargestellt. Außerdem wird an Stelle der euklidischen Abstandsbestimmung eine Sobolev Quasi-Metrik verwendet. Im zweiten Teil der Arbeit werden der Pulsing Neural Gas, der Pulsing Neural Gas Batch und der Pulsing Fuzzy Neural Gas dargelegt. Die ursprünglichen Algorithmen sind in diesen Versionen mit Simulated Annealing kombiniert, um das Konvergenzverhalten der Algorithmen zu verbessern.
Diese Arbeit beschäftigt sich mit verschiedenen Zuverlässigkeitsproblemen in gerichteten Netzwerken. Dabei wird speziell die s,t-Zuverlässigkeit und die s,T-Zuverlässigkeit betrachtet. Dazu werden verschiedene Berechnungs- und Reduktionsmöglichkeiten vorgestellt und anhand von Testrechnungen miteinander verglichen. Außerdem werden für spezielle Graphenklassen explizite und rekursive Formeln angegeben.
In dieser Arbeit werden die Verfahren GLVQ und GRLVQ mit der Sobolev-Metrik erweitert und an verschiedene Datensätze mit funktionalen Daten getestet. Außerdem wird ein Ansatz vor-gestellt, die Prototypen durch Überlagerungen von Basisfunktionen darzustellen. Dieser Ansatz wird zusätzlich noch auf den GMLVQ angewendet. Hierfür betrachtete man die Gaußfunktio-nen und Sigmoidfunktionen als Basisfunktionen. Dabei wurden mit der Sobolev-Metrik sehr gute Resultat erzielt.
Es werden die theoretischen Grundlagen zur Berechnung diffraktiver optischer Elemente von der Beugungstheorie bis zu konkreten Berechnungs-Algorithmen dargelegt. Ein in MATLAB erstelltes Programmmodul zur praktischen Berech-nung wird vorgestellt und dessen Funktionsfähigkeit an einigen Beispielen demontriert.