510 Mathematik
Refine
Document Type
- Diploma Thesis (25)
- Bachelor Thesis (23)
- Master's Thesis (15)
- Conference Proceeding (1)
Keywords
- Graphentheorie (6)
- Optimierung (5)
- Algorithmus (4)
- Finite-Elemente-Methode (3)
- Graph (3)
- Mehrkriterielle Optimierung (3)
- Versicherungsmathematik (3)
- Cluster-Analyse (2)
- Kombinatorik (2)
- Maschinelles Lernen (2)
Institute
In der Diplomarbeit werden neue Risikomerkmale für die Krankenversicherung gesucht. Es wird die Wirkung der Risikomerkmale auf die Rechnungsgrundlagen und damit auf den Beitrag eines Krankenversicherungsproduktes untersucht. Diese Wirkung wird auf der Grundlage von Daten des Münchener Vereins mit geeigneten statistischen Test nachgewiesen.
In dieser Arbeit werden zwei gradientenbasierte Verfahren zur Lösung nichtlinearer Optimie-rungsaufgaben vorgestellt. Neben der Theorie der Verfahren werden konkrete algorithmische Umsetzungen beschrieben und Hinweise zur Implementierung gegeben. Ein Vergleich der Algorithmen mit gängigen Optimierungsverfahren erfolgt anhand einiger ausgewählter Testfunktionen.
In this work a novelty detection framework provided by M. Filippone and G. Sanguinetti is considered, which is useful especially when only few training samples are available. It is restricted to Gaussian mixture models and makes use of information theory, applying the Kullback-Leibler divergence. In this work two variations of the framework are presented, applying the symmetric Hellinger divergence and a statistical likelihood approach.
Ziel der Masterarbeit ist die Untersuchung des Einflusses des Solvency II- und Schweizer Solvenztest-Standardmodells auf die Bestimmung des Risikokapitalbedarfs eines Lebensversicherungsunternehmens. Als Einführung werden zu diesem Zweck die verwendeten Berechnungsmethoden dargestellt und erläutert. Anschließend erfolgt eine quantitative Gegenüberstellung der Richtlinien und Vorschriften unter ausschließlicher Berücksichtigung der versicherungstechnischen Risiken anhand eines Musterlebensversicherungsunternehmens. Auf Grundlage der gewonnenen Erkenntnisse wird eine Allokation des Risikokapitalbedarfs durchgeführt.
Die Partitionstheorie vereinigt viele mathematische Gebiete. In dieser Arbeit gebe ich einen ersten Einblick in diese Theorie. Dazu werden verschiedene Herangehensweise betrachten, unter anderem unter Verwendung grafischer Darstellungen und unter Einbezug von erzeugenden Funktion. Abschließend wird über das Prinzip der Inklusion und Exklusion, ein weiterer Betrachtungswickel eingeschlagen. Mit Hilfe der Verbandsstrukturen lassen sich Identitäten leicht nachweisen und neue Berechnungsvorschriften entwickeln.
In dieser Arbeit wird ein mathematisches Modell beschrieben, welches den O2- und CO2-Stoff-wechsel am isolierten Herzen in den drei Kompartimenten Plasma, interstitiale Flüssigkeit und Parenchymalzellen beschreibt unter Berücksichtigung des Carbonat- und Phosphatpuffergleich-gewichtes. Mit Hilfe dieses Modells wird nach möglichen Sensoren für eine experimentell festge-stellte Flussänderung unter hyperkapnischen Bedingungen gesucht. Dazu werden die Zeitska-len der einzelnen Prozesse analysiert und es wird versucht einen Regelkreis zur Flusssteuerung in das Modell einzubringen. Zudem wird das Modell in MatLab implementiert, um dort mittels Bayes’scher Datenanalyse die Parameter des Modells an die experimentell gemessenen Werte anzupassen
Diese Arbeit beschäftigt sich mit dem Ising-Polynom, einem Graphenpolynom, das von einem physikalischen Modell abgeleitet ist. Es werden verschiedene Darstellungen des Polynoms, seine Beziehungen zu anderen Graphenpolynomen und in ihm enthaltene Grapheninvarianten vorgestellt. Weiter werden, insbesondere für spezielle Graphenklassen, Berechnungsmöglichkeiten beschrieben und der Rechenaufwand betrachtet.
Die vorliegende Arbeit befasst sich mit einem relativ jungen Gebiet innerhalb der angewandten Mathematik, dem Compressed Sensing. Darin geht es zum einen um die Frage, wie man einen dünn besetzten, hochdimensionalen Vektor durch lineare Projektionen in seiner Dimension reduzieren kann, ohne dass dabei Information verloren geht. Dieses "Sensing"-Verfahren ist nicht-adaptiv, d.h. es soll für jeden dünn besetzten Vektor mit der gleichen Anzahl von null verschiedener Elemente gleichermaßen funktionieren und auch nicht während des Prozesses auf bereits berechnete Projektionen zurückgreifen. Zum anderen geht es um die Rekonstruktion des dünn besetzten Vektors aus diesen Projektionen, welche wesentlich weniger in der Zahl sind, als die Dimension des gesuchten Vektors. Das führt auf ein unterbestimmtes lineares Gleichungssystem, das zunächst unendlich viele Lösungen hat. Zusammen mit der Forderung der Dünnbesetztheit an die Lösung führt dies auf ein NP-schweres kombinatorisches Optimierungsproblem. Die Theorie von Compressed Sensing bietet nun Antworten auf die Fragen, wann dieses Problem l¨osbar ist und wie man es mit effizienten Verfahren der Optimierung praktisch lösen kann. Ziel dieser Arbeit ist es, einen einführenden Überblick in das Sparse Reconstruction Problem zu geben und eine Auswahl wichtiger theoretischer Resultate zu präsentieren. Dabei wird zum einen die konvexe Relaxation des NP-schweren Problems betrachtet, welche mit Methoden der konvexen Optimierung effizient gelöst werden kann. Zum anderen werden schnelle Approximationsverfahren betrachtet, welche das kombinatorische Problem direkt approximativ lösen. Dabei wird sich auf eine Auswahl beschränkt, die keinen Anspruch auf Vollständigkeit erhebt, da es kurz nach Etablierung der Theorie eine wahre Explosion an Veröffentlichungen auf diesem Gebiet gab. Dennoch werden die wichtigsten Resultate und Ansätze präsentiert und durch simulative Berechnungen bestätigt und illustriert, wobei die präsentierten Verfahren zum großen Teil selbst implementiert wurden.