Refine
Document Type
- Bachelor Thesis (16)
- Diploma Thesis (3)
- Conference Proceeding (1)
- Master's Thesis (1)
Year of publication
Keywords
- Bildverarbeitung (21) (remove)
Die vorliegende Arbeit liefert einen Überblick in die Möglichkeiten der GPU Programmierung. Dazu werden die Hardwarearchitektur der GPU, sowie Unterschiede zur CPU erläutert. Vorhandene Schnittstellen verglichen und mit Codebeispielen dargestellt. Der Einsatz in der Praxis, wird anhand verfügbarer Entwicklungswerkzeuge und Anbindung an verschiedene Programmiersprachen untersucht.
Medizintechnik und Informationstechnik wachsen durch die Integration verschie-denster medizintechnischer Systeme in das IT-Datennetz immer mehr zusammen und bilden dadurch ein sogenanntes medizinisches Netzwerk. An dieses medizinische Netzwerk werden besondere Anforderungen gestellt, um den speziellen Bedürfnissen der medizintechnischen Geräte im laufenden Betrieb gerecht zu werden. Diese Geräte müssen im Hinblick auf die Verarbeitung, Speicherung und Übertra-gung von Informationen, bezüglich Vertraulichkeit, Verfügbarkeit und Integrität vor negativen Beeinflussungen durch organisatorische und technische Maßnahmen geschützt werden. Zielsetzung dieser Diplomarbeit ist die Entwicklung eines Informationssicherheits-konzeptes zur Gewährleistung der Betriebssicherheit der eingebundenen medizin-technischen Geräte in das IT-Datennetz.
Footage of organoids taken by means of fluorescence microscopy and segmented as well as triangulated by image analysis software like LimeSeg and Mastodon often needs to be visualized in aesthetic manner for presentation of the results in scientific papers, talks and demonstrations. The goal of this work was to create a simple to use addon “Biobox” for the open source 3D – visualization package “Blender” which would allow to import triangulated 3D data with animation over time (4D), produced by image analysis software, and optimize it for efficient usage. ”Biobox” offers several visualization tools for the creation of rendered images and animation videos by biologists.
The optimization of imported data was performed by using Blender intern modifiers. The optimized data can then be visualized by using several tools built for visualizing the organoid in frozen, animated and semi-transparent manners. A dynamic link for object selection and dynamic data exchange between Blender and Mastodon was developed. Additionally, a user interface was developed for manual correction errors of segmentation and steering the object detection algorithms of LimeSeg. The benchmark of the developed addon “Biobox” was performed on real scientific data. The benchmark test demonstrated that developed optimization result in significant (~5 fold) decrease of RAM usage and acceleration of visualization more than 160 times.
In this thesis two novel methods for removing undesired background illumination are de-veloped. These include a wavelet analysis based approach and an enhancement of a deep learning method. These methods have been compared with conventional methods, using real confocal microscopy images and synthetic generated microscopy images. These synthetic images were created utilizing a generator introduced in this thesis.
Ende Dezember 2019 infizierte sich in der chinesischen Stadt Wuhan vermutlich zum ersten Mal ein Mensch mit dem SARS-CoV-2 Virus. Um möglichst schnell nach einer Infektion reagieren zu können sind schnelle Diagnosemöglichkeiten von größter Bedeutung, um frühzeitig medizinische Maßnahmen ergreifen zu können. Zu diesem Zweck wird ein Bildverarbeitungsalgorithmus vorgestellt, der anhand von Röntgen-Thorax-Aufnahmen ermitteln kann, ob eine Virusinfektion oder eine bakterielle Infektion der Lunge vorliegt. Dieser soll vor allem zu einer schnelleren Diagnose von SARS-CoV-2 Virus-Infektionen in medizinisch unterversorgten Gebieten beitragen.
Der Weg zur Brückenklassifizierung : Generierung, Annotation und Klassifizierung eines Datensatzes
(2019)
In dieser Arbeit wird darauf eingegangen, wie zum Zwecke der Klassifizierung von Brückenbildern ein Datensatz erhoben, annotiert, augmentiert und verschiedene Modelle neuronaler Netze darauf trainiert wurden die Brückenbilder in eine von sieben Kategorien einzuordnen. Dabei wird kurz auf die übergeordnete Bemühung eingegangen, mithilfe eines solchen Netzes einen Beitrag zur Abmilderung der Auswirkungen katastrophaler Ereignisse zu bieten. Anschließend werden die vorgenommenen Schritte im Einzelnen erläutert, die zu den im letztem Kapitel gezeigten Ergebnissen führten. Abschließend werden die Ergebnisse diskutiert, Probleme und mögliche Fehlerquellen angesprochen und ein Ausblick auf Weiterführung der Bemühung zur korrekten Brückenklassifikation gegeben.
4K Auflösung gilt als der neue Auflösungsstandard der Film- und Fernsehbranche. Seitens der Unterhaltungsindustrie wird 4K als Verkaufsargument eingesetzt um die Absätze zu erhöhen. Doch inwiefern hat eine höhere Auflösung Einfluss auf die Qualität eines Bildes? Welche Rolle spielen im Vergleich dazu andere Bildparameter und wie wirken sich diese auf die Bildgüte aus? Um eine Aussage über den Sinn von 4K Auflösung machen zu können, werden technische sowie physische Auflösungsgrenzen definiert. Des Weiteren werden verschiedene Faktoren vorgestellt, die die Bildgüte beeinflussen. Es wird der Einzug der 4K Technologie in Kino und Fernsehen beschrieben und über Schwierigkeiten bei der Etablierung informiert. Anhand eines Testverfahrens werden verschiedene Auflösungen miteinander verglichen. Auch die Auswirkungen der 4K Auflösung auf die Gewerke einer Filmproduktion werden näher betrachtet, um abschließend 4K Auflösung und dessen Nutzen bewerten zu können.
Die folgende Arbeit behandelt die Methoden digitaler Bildmanipulationen sowie die Erkennung solcher Manipulationen anhand etablierter Detektionsverfahren. Das Hauptaugenmerk liegt dabei auf der Planung und Implementierung einer Software zur automatisierten Detektion duplizierter Regionen innerhalb eines digitalen Bildes. Anschließend an diese Implementierung folgt eine detaillierte Auswertung der Detektionsergebnisse sowie eine Bewertung der Qualität der Software gegenüber bestehenden Verfahren.