Refine
Document Type
- Bachelor Thesis (209)
- Master's Thesis (70)
- Conference Proceeding (56)
- Diploma Thesis (14)
- Final Report (11)
- Study Thesis (3)
Year of publication
- 2023 (363) (remove)
Keywords
- Blockchain (15)
- Kind (10)
- Maschinelles Lernen (10)
- Computerforensik (9)
- Deutschland (9)
- Raumakustik (9)
- Videospiel (8)
- Computersicherheit (7)
- Datensicherung (6)
- Kindertagesstätte (6)
Institute
- Angewandte Computer‐ und Biowissenschaften (107)
- 06 Medien (75)
- 05 Soziale Arbeit (53)
- Ingenieurwissenschaften (45)
- Wirtschaftsingenieurwesen (8)
- 04 Wirtschaftswissenschaften (4)
- Sonstige (3)
Die Figur des Clowns wurde speziell im Bereich der audiovisuellen Medien mehr und mehr von dem Genre Horror eingenommen. Wie die Wandlung eines komödiantischen Charakters zu einem Symbol des Schreckens geschichtlich, psychologisch und medial begünstigt wurde, wird in der folgenden Arbeit erörtert werden. Zudem wird analysiert, welche Rolle der Clown seit Anfang des 20. Jahrhundert in Film und Fernsehen, speziell im Horrorgenre, einnahm.
In der vorliegenden Bachelorarbeit werden die filmischen Werke Paul Thomas Andersons durch eine strukturfunktionale Analyse genauer betrachtet. In Kombination mit Andersons persönlicher Vergangenheit und der Ausarbeitung von Merkmalen der Filmepoche der Nouvelle Vague, wird die Forschungsfrage, inwiefern Paul Thomas Anderson als ein moderner Autorenfilmer angesehen werden kann und wodurch sich das in seinen filmischen Werken belegen lässt, beantwortet.
Im Zuge der Mobilitätswende befasst sich die Arbeit mit öffentlicher Ladeinfrastruktur in Wohnquartieren. Wohnquartiere wurden bislang - als mögliche Standorte für Ladehubs – seitens diverser Betreiber weitestgehend noch nicht in Betracht gezogen. Daher beschäftigt sich die Arbeit mit der Auslegung und Planung einer Ladeinfrastruktur in einem ausgewählten Quartier. Ein Schwerpunkt liegt dabei auf der Ermittlung des Ladeinfrastrukturbedarfs. Dieser wird anhand einer hypothetischen Analyse des Bestands an Elektrofahrzeugen zum gegenwärtigen Zeitpunkt sowie für das Jahr 2030 aufgezeigt. Aufbauend auf dieser Analyse wird ein technisches und wirtschaftliches Konzept zur Errichtung von Ladehubs im ausgewählten Quartier vorgestellt.
Der technologische Fortschritt hat die Automatisierung und Intelligenz in unserem Leben stark gefördert. Im täglichen Leben existieren Türen in den unterschiedlichsten Lebenswelten als Durchgänge, durch die Menschen gehen müssen. Die Steuerungsanforderungen für Türen sind vielfältig, einschließlich der Notwendigkeit, dass Sicherheitsschleusen einer komplexen Authentifizierung unterzogen werden müssen, um einen Alarm zu öffnen oder auszulösen. Die automatischen Sensortüren in der Mall können die Ankunft von Personen automatisch erkennen und sich automatisch öffnen, während die Kühlhaustüren die Funktion haben, sich automatisch zu öffnen und zu schließen. Mit der zunehmenden Automatisierung können Menschen den Zustand der Tür, d.h. offen oder geschlossen, genau bestimmen, was zu einem Trend zur Diversifizierung der Nachfrage nach Türsteuerung führt. Darüber hinaus gibt es im Kontext globaler Epidemien ein klareres Verständnis für die Bedrohung durch Infektionskrankheiten. Daher ist es in dieser besonderen Zeit besonders wichtig geworden, den Zustand der Tür zu überwachen und die Anzahl der Personen zu erfassen, die durch die Tür gehen. Wenn ein Feuer ausbricht, kann ein System, das automatisch die Anzahl der Personen aufzeichnet, dabei helfen, festzustellen, wie viele Personen sich noch im Raum befinden. Daher kann der Einsatz automatisierter Systeme anstelle herkömmlicher manueller Registrierungsmethoden diesen Prozess erleichtern.
Die vorliegende Bachelorarbeit befasst sich mit der Talentförderung im amerikanischen Collegesport und im deutschen Vereinswesen. Kernpunkt der Arbeit ist es, anhand verschiedener Aspekte die Stärken und Schwächen der Fördersysteme zu analysieren und abzuleiten, welche Auswirkungen sich hieraus auf den Profisport ergeben. Anhand einer qualitativen Analyse der aktuellen Fachliteratur werden diverse Parameter der Talentförderung von der Architektur des Sportwesens und bis hin zur Wertevorstellung der maßgeblichen Player untersucht und in Form von Prinzipdarstellungen gegenüber gestellt. Der Fokus liegt hierbei auf der Identifikation der Wirkprinzipien und Treiber im jeweiligen System. Mit Hilfe einer tabellarischen Auswertung wird ein Vergleich der Vor- und Nachteile gezogen, um auf dieser Grundlage die Erfolgsfaktoren des jeweiligen Systems darzustellen. Als Fallbeispiel werden die Turniere der UEFA Youth League und der NCAA March Madness in deren Bedeutung auf den Übergang vom Jugendsport in den Profisport untersucht. Aufbauend auf der Erarbeitung der Auswirkungen und Erfolgsfaktoren werden zusammenfassend Impulse und Empfehlungen zur Weiterentwicklung der Fördersysteme im Rahmen der Bachelorarbeit formuliert.
Biografiearbeit ist unverzichtbar für das Wohlbefinden älterer Menschen.
Die vorliegende Qualitative Forschungsarbeit befasst sich mit den theoretischen, wissenschaftlichen Grundlagen der Biografiearbeit als Methode in Institutionen der Altenpflege. Schwerpunkte bilden die Bedeutung der Biografiearbeit im stationären Altenpflegesetting und die Frage, inwieweit der Fachkräftemangel und strukturelle Rahmenbedingungen die Wünsche und Perspektiven von Pflegefachkräften an ihre Tätigkeit beeinflussen. Es wurden die Themen Alter, Pflegeheimversorgung und Biografiearbeit als Methode der der Sozialen Arbeit theoretisch beleuchtet. Weitere Schwerpunkte des theoretischen Konstrukts bilden gesetzliche Grundlagen in der Pflege sowie die Entbürokratisierung der Pflegedokumentation. Des Weiteren wurde untersucht, wie sich die Soziale Arbeit in die Biografiearbeit in der Pflege gezielt einbringen kann. Dazu wurden qualitative, leitfadengestützte Interviews mit ausgewählten Personen, die als Fachkräfte im Setting der stationären Altenhilfe tätig sind vorbereitet, durchgeführt, ausgewertet und den Aussagen der wissenschaftlichen Literatur gegenübergestellt. Es wurde die differenzierte Auswertung der Qualitativen Inhaltsanalyse nach Philipp Mayring als Methode der empirischen Sozialforschung dargestellt. Die Forschungsergebnisse bilden signifikante Rückschlüsse mit dem Fokus auf die Pflegepraxis und die Pflegequalität.
Der Inhalt der Bachelorarbeit befasst sich mit dem Thema Erziehungs- und Bildungspartnerschaften zwischen Eltern und pädagogischen Fachkräften am Beispiel einer Kindertageseinrichtung in Sachsen, unter dem Fokus der Herstellung von Chancengleichheit bezüglich der frühkindlichen Bildung. Es wird der Frage nachgegangen, welchen Einfluss die Gestaltung von Erziehungs- und Bildungspartnerschaften auf den Abbau von Bildungsungleichheiten hat.
Die vorliegende Arbeit behandelt die Bemessung einer
Scher-Lochleibungsverbindung. Die Nachweisführung erfolgt anhand der Bemessungsgrundlage der europäischen Norm EN 1993-1-8 aus dem Eurocode 3 und der FKM-Richtline. Diese Arbeit soll einen Vergleich zwischen den Bemessungsmethoden aus Maschinenbau und Stahlbau liefern. Zusätzlich soll eine Methode aufgezeigt werden für eine mögliche zukünftige Weiterentwicklung der FKM-Richtlinie
Soziale Robotik spielt im derzeitigen Gesundheits- und
Pflegebereich eine wachsende Rolle. Auf Grund der Fachkräfteproblematik und dem steigenden Anteil pflegebedürftiger Bewohner:innen stellt sich zunehmend die Frage, ob soziale Robotik, die Lebensqualität von Bewohner:innen in stationären Pflegeheimen verbessern und unterstützen kann. Seit den 2000er Jahren werden soziale Roboter, speziell für therapeutische Arbeiten bei Menschen mit dementiellen Veränderungen entwickelt und evaluiert. Mit Hilfe eines narrativen Review soll eine Übersicht über derzeit auf dem Markt erhältliche soziale, zoomorphe Roboter gegeben werden.
High Dynamic Range (HDR) wird immer beliebter und es kommen immer mehr HDR-fähige Fernseher und Smartphones auf den Markt. Nach einem theoretischen Einblick in die Anwendungszwecke der Zeitraffer-Kinematografie und die technischen Grundlagen von High Dynamic Range wird mithilfe von Experteninterviews und eigener Tests ein Workflow zur Erstellung von Zeitraffer-Sequenzen in High Dynamic Range entwickelt und vorgestellt. Die Beschreibung des Workflows fokussiert sich auf die Postproduktion. Zuletzt wird ein Ausblick auf die zukünftige Entwicklung von HDR gegeben.
Die vorliegende Bachelorarbeit setzt sich mit dem Thema Fertighäuser und dem nachhaltigen Bau auseinander und beinhaltet eine Marktanalyse der Fertighausanbieter auf dem deutschen Markt. Ziel der Arbeit ist es zu ermitteln, welche Faktoren für eine nachhaltige Bauweise entscheidend sind und inwiefern Fertighäuser einen Beitrag zur Nachhaltigkeit im Bauwesen leisten können.
Diese Bachelorarbeit beschäftigt sich mit der Wirkung, die durch die Postproduktion eines Musikvideos erzeugt werden kann. Durch eine Recherche im Bereich der Fachliteratur sollen für diese Thematik Verfahrensweisen erarbeitet und schließlich anhand eines praktischen Beispiels probeweise angewandt werden. Dieses soll durch eine Umfrage beurteilt und ausgewertet werden.
Unsere Welt erlebt einen tiefgreifenden Wandel, in dem Nachhaltigkeit als drängende Herausforderung hervortritt. Unternehmen, Institutionen und Konsumenten sind deshalb gleichermaßen gefordert, die dringend benötigten Veränderungen anzugehen. Vor allem das Verhalten letzterer spielt eine entscheidende Rolle bei der Gestaltung einer nachhaltigeren Zukunft. Deshalb ist es besorgniserregend, dass eine Kluft zwischen Einstellungen und tatsächlichem Verhalten zu beobachten ist. Die vorliegende Masterarbeit widmet sich der Reduktion ebenjenes Phänomens der Attitude-Behaviour-Gap, welches auch bei nachhaltigem Konsum von Fast Moving Consumer Goods wahrgenommen werden kann. Maßgebend ist ein konzeptionelles Modell auf Basis bestehender Forschungen, welches anhand des Sustainability Marketing-Mix präventive Marketingmaßnahmen abbildet. Mit Hilfe einer quantitativen Online-Befragung (N=237) wird untersucht, inwiefern bisherige Erkenntnisse bezüglich möglicher Maßnahmen verifizierbar sind. Die Ergebnisse dieser Umfrage zeigten, dass alle zwölf Elemente hilfreich bei der Minimierung der Attitude-Behavior-Gap sind, jedoch konnten unterschiedliche Wirkungsgrade festgestellt werden. Der primäre Fokus sollte auf Anpassungen an den Konsumentenkosten und der Produktleistungen gelegt werden, da diese am stärksten von den Probanden priorisiert wurden. In der Gesamtbetrachtung wird eine Mischung aus Customer Solutions, Customer Cost, Convenience und Communication-Maßnahmen als optimale Strategie vorgeschlagen, um Konsumenten zum Kauf nachhaltiger Fast Moving Consumer Goods zu bewegen.
In dieser Arbeit wird der Einsatz des Wave Function Collapse Algorithmus untersucht. Dazu werden Anforderungen an das Leveldesign für das Videospiel Counter Strike: Global Offensive als Vorlage genutzt. Der Algorithmus wird in der Unity Engine implementiert und evaluiert. Es werden drei Versuchsreihen durchgeführt. Jede Versuchsreihe nutzt andere Einstellungen für die Levelgenerierung und analysiert welche Anforderungen erfüllt werden können. Die Ergebnisse werden verglichen und es werden Rückschlüsse auf die Anwendbarkeit des Algorithmus für die Erstellung von Multiplayer Level mit Ähnlichkeit zu Counter Strike: Global Offensive gezogen.
Einsatz datenbasierter Assistenzsysteme in Wertschöpfungsprozessen ist sowohl mit Chancen als auch mit Risiken für diese Prozesse bzw. für die Arbeitskräfte verbunden. Studien zeigen gegenwärtig noch Defizite im Entwicklungs-/ Implementationsprozess der Assistenzsystem auf, z. B. bei der Auswahl der Datengrundlage, der Modellerstellung und dem Trainieren von Modellen. Eine erfolgreiche Implementation von Assistenz-Lösungen erfordert ein systematisches Vorgehen, um alle relevanten Gestaltungsaspekte und deren Abhängigkeiten der Gestaltungsdimensionen Mensch – Technik – Organisation voneinander zu berücksichtigen. Zu diesem Zweck wird eine Vorgehensweise entwickelt, die der notwendigen Interdisziplinarität Rechnung trägt. Diese wird in den nächsten Jahren anhand von Fallbeispielen erprobt und bewertet.
Während italienische Migranten in der Bundesrepublik der 1950er Jahre, noch xenophoben Ängsten und rassistischen Vorurteilen ausgesetzt waren, scheint dieselbe Gruppe heutzutage durchweg positiv wahrgenommen zu werden und nahezu perfekt integriert zu sein. Das Ziel dieser Arbeit liegt darin diesen scheinbaren Wandel der Wahrnehmung darzustellen, um zu verstehen, wie diese ethnische Gruppe es schaffte aus der politischen und gesellschaftlichen Debatte zur Migration in Deutschland offenbar
zu verschwinden. Als Grundlage hierzu dient Literatur, die anhand zeitgenössischer Dokumente und Interviews mit Betroffenen verschiedene Studien erarbeitete. Außerdem werden Grundlegende Theorien zu Vorurteilen und Stereotypen angewandt, um deren Veränderlichkeit zu untersuchen. Die gewonnenen Erkenntnisse sollen zukünftig dazu beitragen, den Umgang mit anderen migrantischen Gruppen in der Bundesrepublik zu verbessern.
Die vorliegende Arbeit beschäftigt sich mit der Relevanz von Prominenz für den Erfolg gegenwärtiger Medienformate auf der Plattform Twitch. Der Erfolg von Medienformaten auf der Plattform hängt oft von der Prominenz ihrer Hosts ab. In dieser Bachelorarbeit wird untersucht, inwieweit Prominente einen Einfluss auf die Beliebtheit und den Erfolg von Medienformaten auf der Plattform haben. Die Untersuchung wurde mittels Fragebogenerhebung und Experteninterviews durchgeführt. Anschließend zeigt sich, inwieweit der Einsatz von Prominenz als Gäste mit dem Erfolg von Twitch-Shows zusammenhängt.
VR-Brillen und 3D-Sound sind mittlerweile verbreitete Techniken für Gaming und Consumer- Audio, die das Erleben intensivieren und realistischer machen sollen. Der kreativ-technische Zugriff ist unter anderen mit Game-Engines wie Unity oder der Unreal Engine möglich, die Support für VR-Bild- und einfache Audio-Renderings liefern. Im Gegensatz dazu versucht eine akustische Planung ein möglichst genaues Bild der späteren klanglichen Realität zu erhalten. Die Akustikplanung von Kulturräumen wie etwa Konzertsälen oder Theatern erfolgt deshalb üblicherweise auf anderen Wegen. Zeichen-Software für 3D-Raummodellierung (Bsp. Rhino, Sketchup) wird für die schnelle und kreative Erstellung der Räume gebraucht und einfache akustische Untersuchungen mit Plug-Ins durchgeführt. Die Ansicht erfolgt am Bildschirm. Spezialisierte Akustik-Simulationsprogramme importieren die Raummodelle und berechnen die Schallübertragung von Sendeposition zu Empangsposition bis hin zur Auralisation.
Die Programm-Schnittstellen und das Offline-Processing erschweren das eigentlich gewünschte, unkomplizierte Erleben des Raumes. Die Bachelorarbeit zeigt die Möglichkeiten und Grenzen von bestehender VR-Techniken im Kontext der Raumakustikplanung. Um möglichst realistische Höreindrücke zu erhalten, sollen im Rahmen dieser Arbeit gemessene bzw. mit einem bewährten raumakustischen Simulationsprogramm berechnete Raumimpulsantworten in die VR integriert werden. Der Hörer befindet sich dafür auf fest definierten Positionen des virtuellen Raumes.
In Zeiten, in denen Unternehmen rechenintensive Anwendungen auf externe Server auslagern, gewinnt Cloudcomputing immer mehr an Bedeutung. Das Problem dabei ist, um Operationen auf herkömmlichen, verschlüsselten, ausgelagerten Daten ausführen zu können, müssen diese zuerst entschlüsselt werden. Vertrauliche Daten liegen in dem Zeitraum der Bearbeitung unverschlüsselt vor, was zu einem Datenschutz- und Sicherheitsproblem führt. Dieses Problem kann durch vollständig homomorphe Verschlüsselungen gelöst werden. Diese moderne Verschlüsselungstechnik erlaubt das Ausführen von Operationen auf verschlüsselten Daten und wird in dieser Arbeit grundlegend vorgestellt. Weiterhin werden Bibliotheken, die homomorphe Verschlüsselungen implementieren, vorgestellt und mittels Benchmarking miteinander verglichen. Anschließend wird ein Anwendungsbeispiel formuliert, das die Vor- und Nachteile homomorpher Verschlüsselungen simulieren soll. Die Implementierung des Anwendungsbeispiels erfolgt mithilfe der im Benchmarking ermittelten leistungsstärksten Bibliothek - der Microsoft SEAL Bibliothek. Mit den in dieser Arbeit erlangten Erkenntnissen soll der Einstieg in die komplexe Thematik der homomorphen Verschlüsselungen vereinfacht werden und gleichzeitig zur Auseinandersetzung mit dieser Verschlüsselungsmethodik angeregt werden.
Die immer größer werdenden virtuellen Welten von Computerspielen mit spannendem und glaubhaftem Inhalt zu füllen, ohne die Entwicklungszeit enorm in die Höhe zu treiben, ist eine der großen Herausforderungen für Spielentwickler heutzutage. Eine Möglichkeit dieses Problem anzugehen ist der Einsatz computergestützter Generierungsalgorithmen um manuellen Aufwand zu verringern. Die vorliegende Arbeit befasst sich mit der Umsetzung dreier Data-To-Text-Ansätze zum Zweck der automatischen Generierung von Questtexten aus einer Datenstruktur in der Spieleentwicklungsumgebung Unity. Die entstehenden Implementierungen werden im Anschluss evaluiert auf Eignung für den Anwendungsfall. Folgende Methoden zur Realisierung der Texte werden angewandt: Templating, Templating mit Template-Generierung aus einer kontextfreien Grammatik, sowie die Oberflächenrealisierungsbibliothek SimpleNLG
Die Bühnenparameter STearly und STlate sind in der DIN EN ISO 3382-1 beschrieben. Für ihre Ergebnisse wurde ein üblicher Wertebereich festgelegt. Dieser Bereich sagt jedoch nicht aus, ob ein hoher oder niedriger Wert der jeweiligen Bühnenparameter anzustreben ist. Diese Arbeit versucht durch einen Vergleich mehrerer Orchesterspielstätten anhand der Bühnenparameter und mehrerer Orchesterbefragungen eine Abhängigkeit des Höreindrucks der Musiker von den Bühnenparametern festzustellen. Dazu wurden drei Bühnen, vier Orchestergräben und drei Probenräume akustisch vermessen. Zu 9 der 10 Spielstätten konnte eine Orchesterbefragung durchgeführt werden. In der Auswertung wurden zunächst die Spielstätten bezüglich ihrer Bühnenparameter und der Antworten auf die Fragebögen verglichen. Um die Bühnenparameter und Fragebögen in Relation zueinander zu setzen, wurde eine Korrelation der Mittelwerte und Standardabweichungen der Bühnenparameter mit den Mittel- und Medianwerten der Fragebogenantworten durchgeführt. Dabei konnte keine Erkenntnis gebende Korrelation mit den Mittelwerten und Medianen der Orchesterbefragung nachgewiesen werden. Parallel dazu wurden die Bühnenmaße und Antworten der Fragebögen mit dem Volumen und der EDT korreliert. Es konnten moderate bis hohe Korrelationen vor allem mit Teilen der Orchesterbefragung sowie dem STearly erzielt werden.
In dieser Arbeit werden die algorithmischen Grundlagen der Machine Learning Verfahren LVQ1 und LVQ3 erläutert. Für LVQ3 werden mehrere Ansätze zur Anpassung der Lernrate betrachtet, die anschließend verglichen werden sollen. Dazu werden vier verschiedene Experimente durchgeführt, wobei zwei Datensätze Verwendung finden, deren Ursprung in medizinischen Bilddaten liegt.
Vergleich von Grid Computing und Cloud Computing anhand Regeln und Ziele im IT-Governance Prozess
(2023)
Diese wissenschaftliche Arbeit leistet einen Beitrag zum Thema „Cloud-Computing“, welches unterschiedliche Möglichkeiten und Dienste bietet. Im Gegensatz dazu befasst sich dieser Forschungsbericht zusätzlich mit dem Konzept des Grid-Computing. Zu Beginn werden die IT-Governance-Regeln verglichen, die im Cloud- und Grid-Computing eines Unternehmens eine große Rolle spielen. Dabei werden zwei Varianten der der IT zur Verfügung stehenden Infrastrukturen für ausgewählte Dienste eingerichtet, welche den Regeln der IT-Governance folgen müssen. Die in dieser Arbeit ermittelten Informationen bieten einen guten Ausgangspunkt für die Umstellung der IT auf Cloud- bzw. Grid-Computing
Aufgrund der steigenden Anzahl an Angriffen durch neue Malware Varianten ist es wichtig eine effektive Methode zu nutzen, um sich gegen diese Flut zu schützen. Diese von den Angreifern genutzte Malware muss identifiziert und analysiert werden, um die Systeme vor aktuelle und kommenden Angriffen schützen zu können. Für die Informationsextraktion stehen zwei grundlegende Ansätze zur Verfügung. Statische Analyse und die dynamische Analyse. Das Hauptaugenmerk liegt in dieser Arbeit auf der dynamischen Analyse. Diese wird genutzt um das Verhalten einer potentiell bösartigen Datei zu beobachten und anschließend auszuwerten, ob es sich um Malware handelt. Eine dafür häufig eingesetzte Methode ist die Sandbox. Bei dieser handelt es sich um eine isolierte Umgebung, in der eine Malware ausgeführt werden kann, ohne ein Risiko für das eigene System darzustellen. Bei der Nutzung eines Sandbox Systems wird ebenfalls von dem Begriff der automatisierten Malware Analyse gesprochen. Damit ist es möglich auch große Mengen von Malware Samples zu analysieren. Nach der Analyse wird neben der Bösartigkeit einer zu untersuchenden Datei, ebenfalls die gesammelte Daten über diese ausgegeben. Diese Arbeit vergleicht drei verschiedene Sandbox Systeme, um anschließend festhalten zu können, welches dieser Systeme die meisten Vorteile mit sich bringt. Bei diesen ausgewählten Sandbox Systemen handelt es sich um Cuckoo, Any.Run und Hybrid Analysis. Um eine Gegenüberstellung der Sanbox Systeme zu ermöglichen, wurden diverse Metriken verwendet. Zu diesen Metriken zählen unter anderem genutzte Anti-Evasion Techniken und die Möglichkeit einer URL Analyse. Nach umfassender Nutzung aller drei Sandbox Systeme, wurde eine Vergleichmatrix mit den bereits erwähnten Metriken erstellt. Anhand dieser konnten die Vor- und Nachteile der Sandbox Systeme gegeneinander abgewogen werden.
Die folgende Arbeit vergleicht die Möglichkeiten zur Erstellung von prozeduralen Texturen in Substance Designer mit denen in Blender. Dafür werden in beiden Programmen abstrakte und natürliche Texturen praktisch erstellt. Anschließend werden die Erstellung und die daraus gewonnen Erkenntnisse ausgewertet. Anhand der Resultate wird bewertet, wie die beiden Programme zueinander eingeschätzt werden können.
Die Anforderungen an die Qualität und den Realismus von Videospielen und deren visuellen Effekten steigen kontinuierlich. Dies führt zu der Herausforderung, beeindruckende Effekte und eine gute Performance zu gewährleisten. Die Auswahl einer geeigneten Technik für ein Leistungsproblem ist daher wichtig. Aus diesem Grund widmet sich die Bachelorarbeit dem Vergleich verschiedener Methoden zur Optimierung der Darstellung visueller Effekte in Unity. Neben einer Literaturrecherche werden ausgewählte Verbesserungsmöglichkeiten wie zum Beispiel ein Level-of-Detail System oder Batching implementiert. Als nächstes findet eine Evaluation dieser Techniken in einem Testszenario mit ausgewählten Metriken wie beispielsweise Bildrate und Grafikkartenauslastung statt. Anschließend erfolgt der Vergleich ihrer Effektivität in Bezug auf die originale Version des visuellen Effektes. Die Ergebnisse der Untersuchung zeigen, dass insbesondere das Level-of-Detail System und die Culling-Methode einen signifikanten Einfluss auf die Grafikkartenauslastung haben. Zudem weisen die meisten Optimierungstechniken in Bezug auf die Metriken Vor- und Nachteile auf. Obwohl die erzielten Ergebnisse nicht unmittelbar auf die praktische Anwendung in Spielen übertragbar sind, ermöglichen sie dennoch eine wertvolle Vergleichbarkeit der angewendeten Methoden.
Die vorliegende Bachelorarbeit befasst sich mit Vergewaltigungsmythen. Dabei wird durch eine intensive Literaturrecherche die Funktionen von und Herausforderungen durch Vergewaltigungsmythen dargelegt, mit einem Fokus darauf, wie diese Betroffene sexualisierte Gewalt und die Profession Soziale Arbeit beeinflussen. Verbunden mit einer Befragung der zum Zeitpunkt der Bachelorarbeit immatrikulierten Studierenden der Fakultät Sozialen Arbeit in Mittweida stellte diese Arbeit die Prävalenz von Vergewaltigungsmythen dieser Gruppe dar und diskutierte die Ergebnisse in Kontext der Herausforderungen. Dabei wurde sich der Frage genähert, welche Bedeutung Vergewaltigungsmythen für die Profession Soziale Arbeit haben und welche weiteren Herausforderungen sich daraus ergeben.
Anwendungen im Bereich smarte Textilien gewinnen in den letzten Jahren zunehmend an Bedeutung. Häufig ist die elektrische Leitfähigkeit der textilen Strukturen die Grundvorrausetzung für sensorische und aktuatorische
Aufgaben. Leitende Strukturen, die mit momentan existierenden Technologien erzeugt werden, erfüllen jedoch nicht das hohe textile Anforderungsprofil an Widerstandsfähigkeit wie Waschbarkeit und Flexibilität. Bisherigen Lösungen, wie leitfähigen Garnen mangelt es an Knickbruchbeständigkeit und bei der Verwendung von leitfähigen Tinten ist die elektrische Leitfähigkeit zu gering. Diese Arbeit beschäftigt sich mit der Generierung elektrisch leitfähiger Strukturen mit Hilfe einer laserbasierten Pulverbeschichtungstechnologie. Dabei werden zwei möglich industriell einsetzbare Varianten vorgestellt und bewertet. Für die Beschichtung wird ein Gemisch aus TPU Pulver und Silberpartikeln verwendet. Dieses wird durch CO2-Laserstrahlung auf dem Textil fixiert. Die entstehenden Strukturen werden mit analytischen und mikroskopischen Methoden ausgewertet.
Die Geräusche im Fahrgastraum von Schienenfahrzeugen sind ein wesentlicher Faktor für den Komfort der Fahrgäste. Da die messtechnische Bestimmung solcher Geräusche während des Entwicklungsprozesses meist nicht möglich ist, sind Prognosemethoden notwendig, um die Einhaltung vorgegebener Zielwerte im Laufe des Entwicklungsprozesses sicherzustellen. In der vorliegenden Arbeit wird ein bestehendes Verfahren für die Prognose von Schalldruckpegeln im Fahrgastraum von Straßenbahnen während des Fahrzeugstillstandes erweitert und mithilfe von Messungen an einem realen Fahrzeug validiert. Aus den Messungen werden neben Referenzwerten zu Validierung der Prognose auch Eingangsdaten für das Prognosemodell gesammelt. Zusätzlich zur Einordnung der Genauigkeit des Verfahrens erfolgt auch eine Charakterisierung des Schallfelds im Fahrgastraum.
Nach der erfolgreichen Etablierung der durchflusszytometrischen Methode zum XIAP-Nachweis auf T-, B- und NK-Zellen innerhalb des Praxismoduls sollte diese validiert werden. Zur Validierung wurde ein Inter- und ein Intraassay durchgeführt. Für die anschließende Beurteilung der Präzision der Methode wurde jeweils der Variationskoeffizient der Messwerte berechnet, dieser sollte bei ± 20% liegen. Für die Gewinnung von Referenzwerten wurde von 21 gesunden Personen Blut abgenommen und dieses analysiert. Anschließend wurden die Messwerte mithilfe des Friedman- und des Wilcoxon-Tests statistisch ausgewertet.
Der visuelle mikroskopische Spermanachweis gilt bis heute als aussagekräftigster Nachweis von Spermien in der forensischen Fallarbeit. Anhand der markanten Zellmorphologie kann ein Spermium von anderen Zellen und Partikeln unter dem Mikroskop abgegrenzt und unterschieden werden. Voraussetzung hierfür sind jedoch eine zuverlässige Aufarbeitungsmethode, um die Spermien eines Asservats auf einen Objektträger zu überführen und eine valide Färbemethode, welche die Spermien erst sichtbar macht.
Zielsetzung dieser Arbeit ist es, eine zeitsparende und effiziente Färbemethode zu finden, die in der praktischen Laborarbeit für den mikroskopischen Spermanachweis sicher angewandt werden kann. Verglichen werden hierfür im Folgenden die lichtmikroskopische Kernechtrot-Pikroindigokarmin- und die fluoreszenzmikroskopische SPERM HY-LITER-Färbung. Weiterführend werden reale Fallproben auf Spermien untersucht, um somit praxisnahe Gewissheit über die Effizienz der Methoden zu erlangen.
This study explores the opportunities and risks associated with user-generated content (UGC) in the communication strategies of marketing departments from a business perspective. With the rise of social media and online platforms, UGC has become a powerful tool for brands to engage with their audience, build trust, and enhance brand awareness. However, implementing UGC also comes with inherent risks, including the loss of control over brand messaging, potential negative user-generated content, and legal implications.
To investigate these dynamics, an empirical mixed-methods approach was employed, including expert interviews and a comprehensive literature review. The findings indicate that UGC offers significant opportunities for marketing departments, such as increased customer loyalty, enhanced authenticity, brand awareness, as well as a diverse set of possible content. However, the study also reveals the potential risks associated with UGC, highlighting the importance of managing these risks effectively.
In der vorliegenden Arbeit soll mittels Laserablation eine funktionale Mikrostruktur in die Oberfläche von Edelstahl und speziellen Wolframcarbid-Hartmetall-Klemmwerkzeugen zur Erhöhung der Haltekraft eingebracht werden. Damit ein präziser und schneller Materialabtrag realisiert werden kann, wird für die Umsetzung der Arbeitsaufgabe ultrakurzgepulste Laserstrahlung in Verbindung mit hochdynamischer Strahlablenkung verwendet.
In dieser Arbeit wird der Einfluss des Doppelpuls-Zeitdelays ultrakurz gepulster Laserstrahlung auf die Ablation von dünnen Edelstahlschichten mithilfe von fluenzabhängigen Abtragsuntersuchungen evaluiert. Anhand der Messergebnisse konnten Abhängigkeiten in Bezug auf den Abtragsdurchmesser, die Abtragstiefe und die Schwellfluenz ermittelt werden, weshalb mittels orts- und zeitaufgelöster, vorder- und rückseitiger Pump-Probe Reflektometriemessungen anschließend die Ursachen für diese Abhängigkeiten grundlegend untersucht und die Ergebnisse diskutiert werden. Zur weiteren Auswertung und Diskussion der Messergebnisse dient der simulierte orts- und zeitaufgelöste Verlauf der Elektronen- und Phononentemperatur entlang der Schichtdicke.
Die Mikrostrukturierung mittels Fluorlaser ermöglicht die Herstellung von Mikrooptiken in Gläsern und anderen Materialien mit großer Energiebandlücke. Für die Strukturierung von Mikrolinsen haben wir eine neue Herstellungsmethode und den dafür benötigen Experimentaufbau entwickelt. Der Prozess basiert auf dem Maskenprojektionsverfahren und nutzt eine Vielzahl unterschiedlicher Kreismasken, die nacheinander im Laserstrahlengang platziert werden, um einen ringförmigen Ablationsbereich zu formen. Durch die Verwendung eines
entsprechend konzipierten Maskensatzes ist es möglich, eine Oberfläche mit einer definierten sphärischen Form herzustellen. Es werden der gesamte Prozess, der Experimentaufbau sowie die Ergebnisse vorgestellt
Das Ziel dieser Bachelorarbeit ist die Auslegung eines Aluminiumspäneschredders anhand einer bestehenden Arbeitsmaschine. Dabei gilt es, die erforderlichen Schritte von Entwicklung bis zum fertigen Zerkleinerer beispielhaft darzustellen und aufzuzeigen, dass die Herstellung einer eigenen konkurrenzfähigen Maschine möglich ist
Die Bestrahlung einer dünnen Goldschicht (Schichtdicke 𝑑𝑑𝑧𝑧 = 150 nm, 25 nm Haftvermittlerschicht aus Chrom, Substrat: Quarzglas) mit Einzel- und Doppelpulsen von ultrakurz gepulster Laserstrahlung (Pulsdauer 𝜏𝜏𝐻𝐻 = 40 fs, Wellenlänge 𝜆𝜆 = 800 nm, zeitlicher Pulsabstand 𝛥𝛥𝛥𝛥 = 400 ps, Spitzenfluenz pro Puls 𝐻𝐻0 = 1,5 𝐻𝐻𝑡𝑡ℎ𝑟𝑟 , 𝐻𝐻𝑡𝑡ℎ𝑟𝑟 − Ablationsschwelle) ergibt signifikante Unterschiede zwischen der Topologie der Ablationsstrukturen des Einzel- und des Doppelpulses. Durch Simulationen mit Hilfe des Zwei-Temperatur-Modells in Kombination mit der Hydrodynamik (TTM-HD) können diese unterschiedlichen Topologien erklärt werden. Die Ursache stellt dabei die Wechselwirkung des zweiten Pulses mit der durch den ersten Puls erzeugten Ablationswolke, deren Erhitzung durch die Absorption des zweiten Pulses und die anschließende allseitige Expansion des entstehenden Gas-Flüssigkeits-Gemisches dar. Die berechneten Ergebnisse werden durch ultraschnelle abbildende
Reflektometrie bestätigt und validiert.
Die vorliegende Arbeit befasst sich mit experimentellen Untersuchungen zum Hochleistungs-SLM mit Strahlformung. Ein zirkularer Laserstrahl mit Top-Hat-Intensitätsverteilung im Fokus diente als Ausgangsstrahl, welcher mithilfe Zylinderlinsen zu elliptisch ähnlichen Profilen geformt wurde. Es wurde mit 6 verschiedenen Strahlformen Versuche zur Generierung von Wandstrukturen jeweils in longitudinaler und transversaler Bearbeitungsrichtung durchgeführt. Dabei wurden die Laserleistung, Geschwindigkeit, Pulverschichtdicke und Pulvermaterial aus Edelstahl variiert. Zur Bewertung der Prozessstabilität werden die generierten Wände in verschiedene Kategorien klassifiziert. Der Einfluss unterschiedlicher Strahlprofile auf die Prozessstabilität beim Hochleistungs-SLM wird analysiert. Hinsichtlich des Prozessfensters, der Aufbaurate und der Energiedichte (Energieeffizienz) werden die Ergebnisse verschiedener Strahlformen bezüglich vergleichbarer Strahlbreite (Auflösung) miteinander verglichen und diskutiert. Letztendlich werden die Einflüsse von longitudinal und transversal elliptischen Strahlformen auf die Mikrostruktur und Härte gegenübergestellt.
Der Einsatz von Polygonspiegelscannern zur ultraschnellen Strahlablenkung im Mikro-SLM besitzt das Potential, die Effizienz dieses Fertigungsverfahrens um ein Vielfaches zu steigern. Durch die hohen Scangeschwindigkeiten von bis zu 100 m/s kann die Bestrahlungszeit deutlich reduziert werden, ohne dabei die hohe Auflösung des Verfahrens zu beeinträchtigen. In ersten Untersuchungen zeigte sich, dass aufgrund der kurzen Wechselwirkungszeiten im Bereich einiger 100 ns und der Verwendung von hohen mittleren Laserleistungen die Verdampfung von Pulvermaterial den für die Schichtbildung maßgeblichen Prozess darstellt. Die so entstehenden Schmelzspuren weisen eine inhomogene Oberflächenstruktur sowie eine hohe Porosität auf. Durch die Anpassung der Prozessparameter konnten dennoch Strukturbreiten kleiner 100 μm und relative Dichten größer 94 % erzeugt werden.
Untersuchungen zu den Belastungsgrenzen des Polygonscansystems
durch die genutzte Laserstrahlung
(2023)
Um die immer weiterwachsenden Laserleistungen der Lasergeräte auf dem Markt effektiv auf der Werkstoffoberfläche umsetzen zu können, werden extrem schnelle Laserstrahlablenksysteme benötigt. Zu diesem Zweck
wurde in der Vergangenheit an der Hochschule Mittweida ein komplett neuartiges Polygonscannersystem entwickelt. Durch den steigenden Bedarf von immer kürzeren Laserpulsen und höheren Spitzenintensitäten der Industrie sollte das System hinsichtlich der Zerstörschwelle charakterisiert werden, um die Grenzen der optischen Schichten und somit des Scannersystems auszuloten. In der folgenden Arbeit wurde jedes optische Bauteil hinsichtlich der optischen Belastungsgrenze untersucht und charakterisiert. Augenmerk hierbei lag vornehmlich auf der Verwendung ultrakurzer Laserpulse aber auch thermale Belastungstests mittels kontinuierlichen Hochleistungslasern wurden durchgeführt.
Die bei der Laserprozessierung freigesetzten Laserrauche bzw. Partikelemissionen zählen zu den Sekundärgefährdungen
durch Laserstrahlung und können für den Personenkreis im Laserarbeitsraum als auch für die Anlagentechnik im Umfeld ein Sicherheitsrisiko darstellen. Die dazu innerhalb eines Forschungsvorhabens an ausgewählten Werkstoffen durchgeführten Untersuchungen zeigten, dass Laserrauche größtenteils als alveolengängiger Ultrafeinstaub mit Partikelgrößen im Bereich 100 nm vorliegen. Mit einem neuartigen Abscheidesystem konnte ein hoher Abscheidegrad > 99,99 % erreicht und selbst große Mengen an Laserrauchen verlässlich erfasst und abgeschieden werden. So gelang es, die bzgl. Staubbelastung und Gefahrstoffe geltenden Arbeitsplatzgrenzwerte auch für großvolumige Laserablationsprozesse nachweislich einzuhalten. Die Überprüfung der laserinduzierten Partikelemissionen auf Zünd- und Explosionsfähigkeit ergab ein niedriges Gefahrenpotenzial für Aluminium; die untersuchten Stahlsorten wurden als nicht explosionsfähig eingestuft.
Diese Arbeit befasst sich mit dem Erstellen eines digitalen, fotorealistischen Porträts. Dabei werden die Grundlagen sowie das Vorgehen beim Entstehungsprozess beschrieben. Im Weiteren untersucht diese Arbeit Methoden zur Einschätzung des Zeichenfortschritts des erstellten Bildes. Diese werden getestet und ihre Ergebnisse anschließend ausgewertet.
Inhalt dieser Untersuchung ist die Erarbeitung prinzipieller Maßnahmen zur Umsetzung der Anforderungen an die raumakustische Qualität von typischen Ausbauformen von Büroflächen nach der deutschen Richtlinie zur Büroakustik VDI 2569. Dazu werden Berechnungsmethoden der geometrischen Akustik inklusive einiger wellenbasierter Erweiterungen angewandt.
Nach dem aktuellen Stand der Technik werden Bau-Schalldämm-Maße gemäß DIN EN ISO 16283-1 meist mittels stochastischen Anregungssignalen wie rosa Rauschen über die Ermittlung von Sende- und Empfangspegel bestimmt. Für hochschalldämmende Bauteile wie sie im Studiobau häufig vorkommen, stößt dieses Verfahren jedoch an seine Grenzen. In DIN EN ISO 18233 wird ein alternatives Messverfahren zur Bestimmung der Schallübertragung zwischen zwei Räumen basierend auf Sinus-Sweeps beschrieben. Welche Möglichkeiten dieses Verfahren für die Bestimmung der Luftschalldämmung hochschalldämmender Bauteile bietet, wird in dieser Arbeit genauer untersucht. Das Swept-Sine-Verfahren wurde dafür mithilfe von mehreren MATLAB-Skripten implementiert und an hochschalldämmenden Bauteilen wie einer zweischalige Leichtbauwand mit getrenntem elastisch gelagertem Ständerwerk sowie unterschiedlichen Raum-in-Raum-Konstruktionen angewendet.
Die Bachelorarbeit setzt sich mit dem Thema „Wohnungslosigkeit“ auseinander. Diese bezieht sich auf die Situation, in der Menschen keine angemessene und dauerhafte Unterkunft haben.
Ziel der Bachelorarbeit ist es, die Wechselwirkung zwischen dem Auftreten psychischer Erkrankungen und Wohnungslosigkeit zu untersuchen und mögliche Handlungsempfehlungen für die Soziale Arbeit abzuleiten. Die Bewältigung erfordert verschiedene Maßnahmen, die aus den Untersuchungsergebnissen abgeleitet werden.
Fokussierte ultrakurz gepulste Laserstrahlung ermöglicht die Bearbeitung von transparenten Dielektrika, wie Glas, obwohl die Photonenenergie geringer als die Energiebandlücke des Materials ist. Die dabei zugrundeliegenden physikalischen Prozesse Multiphotonen-, Tunnel- und Avalancheionisation wurden bereits in zahlreichen experimentellen und theoretischen Studien untersucht und sind unter anderem stark von den transienten optischen Eigenschaften des Materials während der Bestrahlung sowie der Elektron-Elektron Stoßfrequenz abhängig. In diesem Beitrag wird ein Pump-Probe Setup vorgestellt, welches mit einem abbildenden Ellipsometer kombiniert wurde und so den transienten komplexen Brechungsindex des angeregten Materials zeitlich, spektroskopisch und örtlich aufgelöst bestimmen kann. Die damit gemessenen transienten optischen Eigenschaften von Glas werden mit verschiedenen Modellen aus der Literatur verglichen, um diese zu überprüfen und so die nichtlinearen Anregungsprozesse besser verstehen zu können.
Verschiedenste telefonische Betrugsmaschen, die auf die ältere Generation abzielen, sind in den letzten Jahren in Deutschland exorbitant gestiegen. Ob Schockanruf, WhatsApp-Betrug oder Enkeltrick: die Folgen eines solchen Betrugsfalls werden nur selten aufgezeigt. Anhand einer quantitativen Umfrage und einem Interview mit einer Betroffenen werden in dieser Arbeit die Betrugspräsenz, die Trendentwicklung und der aktuelle Aufklärungsstand am Beispiel des Enkeltricks, sowohl analog als auch digital untersucht. Abschließend werden Handlungsempfehlungen für potenziell gefährdete Menschen ausgesprochen.
Extrem-Metal-Gesang, der durch atonale Vokalisation gekennzeichnet ist, spielt eine entscheidende Rolle bei der Vermittlung musikalischer Emotionen durch die Manipulation der Stimmfarbe. Die phonetische Theorie der Formanten liefert eine technische Grundlage für die akustische Analyse dieser Stimmausdrücke. Mithilfe der phonetischen Analysesoftware Praat können Formantfrequenzen im Spektogram durch Bereiche konzentrierter Energie im Sonagramm identifiziert werden. Durch die Untersuchung der Formantenverteilung können Erkenntnisse über den stimmlichen Einfluss auf verschiedene Klangfarbeneinstellungen in praxisnahen Screaming-Aufnahmen gewonnen werden. Ziel dieser Forschung ist es, den Zusammenhang zwischen Formantmerkmalen und der emotionalen Wirkung extremer Metal-Gesänge zu untersuchen und so zu unserem Verständnis des stimmlichen Ausdrucks in diesem Genre beizutragen.
Die vorliegende Arbeit beschäftigt sich mit der Fragestellung ob und warum die Anzahl von IT-Sicherheitslücken exponentiell steigt. In Zuge dessen wird der Zusammenhang zwischen der Entwicklung von Sicherheitslücken und der Entwicklung der Code-Länge über die Zeit untersucht. Um die Forschungsfrage zu beantworten, wurden CVE-Daten ausgewertet. Dabei wird nicht nur die allgemeine CVE-Entwicklung, sondern auch ausgewählte Software-Systeme im Speziellen betrachtet. Um die Code-Länge zu untersuchen, wurden die LOC der einzelnen Software-Systeme analysiert. Die Untersuchung ergab, dass die Entwicklung der CVE gesamt einen exponentiellen Trend verfolgt. Die CVE-Entwicklung der einzelnen Software-Systeme verfolgt im Gegensatz dazu in der Mehrheit einen linearen Trend. Auch die LOC-Entwicklung der Software-Systeme passt sich diesem Trend an. Somit zeigt sich, dass die drastische Entwicklung der Sicherheitslücken nicht ausschließlich durch eine drastische LOC-Entwicklung beeinflusst wird, sondern von verschiedenen Faktoren abhängt, die sich untereinander verstärken.
In dieser Bachelorarbeit wurde die entomologische Besiedlung zweier Ferkelkadaver über eine Dauer von 80 Tagen untersucht. Als Auslegungsort wurde ein Waldstück in Thüringen gewählt. Es konnten fünf Verwesungsstadien klassifiziert werden. Dominante Insekten waren die Familien Calliphoridae, Muscidae, Piophilidae und Silphidae. Piophilidae konnte ab Tag 30 beobachtet werden und trat bis zum Ende des Experiments auf. Es wurden die Piophilidae-Arten Stearibia nigriceps, Lioliophila varipes und Prochyliza nigricornis asserviert. Ziel der Arbeit war es, einen Forschungsbeitrag zur Familie der Käsefliegen zu liefern.
Diese Arbeit beschäftigt sich mit verschiedenen Mehrspielermechaniken und deren Auswirkung auf bestimmte Aspekte des Spielerlebnis. Dafür soll ein zweidimensionales Plattformerspiel erstellt werden. Hierfür erfolgt zunächst die Definition der zu implementierenden Mehrspielermechaniken. Anschließend wird ein Konzept für die einzelnen Mechaniken erstellt wie sie konkret im Spiel eingebaut werden. Danach soll die Umsetzung der erstellten Konzepte erfolgen. Dieses Spiel wird dann mit der Hilfe von Probanden evaluiert. Die Ergebnisse der Evaluation werden danach analysiert, um Aussagen über die Veränderung zuvor ausgewählter Aspekte zwischen den Verschiedenen Mechaniken zu treffen. Umgesetzt wird der praktische Teil der Arbeit in Unity. Es wird in C# programmiert.
Die vorliegende Arbeit beschäftigt sich mit der Betrachtung und Analyse der Bedrohungslage durch Cybercrime in Deutschland im Jahr 2021. Dafür werden verschiedene Berichte und Studien untersucht und anschließend miteinander verglichen. Außerdem sollen daraus abgeleitet Aussagen zur inhaltlichen Gestaltung von Awareness-Schulungen getroffen werden. Dafür werden verschiedene Angebote betrachtet und einander gegenüber gestellt. Der anschließende Vergleich dieser beiden Themenschwerpunkte soll Empfehlungen für eine optimale Gestaltung von Mitarbeitersensibilisierung liefern. Insgesamt sind eindeutige Aussagen zu einzelnen Angriffsarten im Cybercrime-Bereich schwierig, weshalb nur bedingt Empfehlungen für Awareness-Schulungen gegeben werden können. Die Vielfältigkeit aktuell angebotener Schulungen bietet geeignete Möglichkeiten zur Mitarbeitersensibilisierung.
Ausgehend von der theoretischen Auseinandersetzung mit der Methode Familienrat widmet sich diese Masterarbeit einer qualitativen Untersuchung unterschiedlicher Familienratsangebote im deutschsprachigen Raum (ohne Anspruch auf Vollständigkeit) und deren Zugangsvoraussetzungen für Nutzer:innen. Mittels dieser empirischen Untersuchung wird herausgearbeitet, welche impliziten Rahmenbedingungen auf die Angebotsetablierung des Familienrates und die Konstruktion von Zugangsvoraussetzungen wirken. Mittels der dokumentarischen Methode werden die erhobenen Daten vergleichend analysiert und interpretiert. Als Ergebnisse dieser Arbeit werden Orientierungstypen dargestellt, welche die Handlungspraxis von Fachkräften wie auch die Zugangsvoraussetzungen beeinflussen.
Die Unternehmensnachfolge von landwirtschaftlichen Betrieben in Bayern stellt eine Herausforderung im Rahmen der familiären generationenübergrei-fenden Nachfolge dar. Im Rahmen der Masterarbeit werden zuerst die Grundlagen der Unternehmensnachfolge näher definiert. Insbesondere werden dabei die steuerlichen Grundlagen der unterschiedlichen Steuerarten definiert, wobei der Fokus im Ertragsteuerrecht liegt (vgl. Kapitel 2).
Zur Untersuchung der Problemstellungen wurden in den folgenden Abschnitten die steuerliche Methodik – nämlich die sog. juristische Methodenlehre als Teil der BWL - näher beleuchtet (vgl. Kapitel 3) und in diesem Zusammenhang wurde allgemein erläutert, wie rechtliche Problemstellungen durch juristische Methoden gelöst werden können.
Im Kernstück der Arbeit wurden verschiedene Modellvarianten der steuerlichen Unternehmensnachfolge unter dem Gesichtspunkt der Neuregelung von § 14 EStG durch das Jahressteuergesetz 2020 untersucht, die in Kapitel 4 ausführlich darstellt wurden. Letztendlich ist es dem Gesetzgeber gelungen, die Verkleinerung von Betrieben oder das Ausscheiden von Gesellschaftern verpachteter landwirtschaftlicher Betriebe, Personenzusammenschlüsse (insbes. Personengesellschaften) steuerneutral zu regeln.
In Kapitel 5 wird schließlich das Ergebnis dieser Arbeit zusammengefasst. Ins-besondere wird darauf eingegangen, welche steuerlichen Gestaltungsvarianten im Kontext der landwirtschaftlichen Unternehmensnachfolge besonders sinnvoll erscheinen. Oftmals müssen sich die übergebende Generation und die nachfolgende Generation entscheiden, ob es zur Betriebsfortführung kommen soll oder zur (steuerneutralen) Aufteilung von betrieblichen Einheiten unter Einstellung der bisherigen Tätigkeit, was einer (betriebswirtschaftlichen) Betriebsaufgabe gleichkommt.
Die vorliegende Arbeit befasst sich mit dem in Deutschland noch recht unbekannten Community-Led Ansatz und beantwortet die Forschungsfrage: „Halten deutsche Bürger den Community-Led Ansatz für nützlich und sinnvoll?“. Zu diesem Zweck wurde eine quantitative Umfrage mit insgesamt 345 deutschen Bürgern durchgeführt. Als Rückschluss aus den Ergebnissen, kann Unternehmen in Deutschland empfohlen werden, den Community-Led Ansatz zu implementieren. Ein Großteil der Befragten erachtet den Community-Led Ansatz nicht nur für sinnvoll, sondern zeigt auch Interesse daran, an einer solchen Community teilzunehmen.
In dieser Arbeit werden acht Arten von Belohnungssysteme in Mobile Games auf deren Einfluss auf das Verhalten der Spieler und den daraus resultierenden Wiederspielwert eines Spiels untersucht. Zwei dieser Systeme werden für einen Praxistest ausgewählt und detailliert betrachtet. Dabei handelt es sich um das Punktestand System und das Level System. Die Konzeption der Systeme ist um- fangreich beschrieben und die Implementation ist anhand von relevanten Beispielen oder Grafiken aus der Spiele-Engine veranschaulicht. Diese Belohnungssysteme werden innerhalb eines sonst identischen Spiels separat integriert und in einem AB Test getestet. Für die Auswertung des Praxis- tests werden während der Testphase diverse Spieldaten der Spieler erhoben und im Anschluss an den Test wurde von jedem Nutzern ein Fragebogen beantwortet. Auf diese Weise werden objektive Spieldaten sowie subjektive wahrgenommene Faktoren des Spielverhaltens erfasst und konnten in der Auswertung miteinander verknüpft werden. Die dabei entstandenen Ergebnisse zeigen, dass beide Belohnungssysteme die Spieler zum spielen motiviert haben. Jedoch hat das Punktestand System einen höheren Wiederspielwert erzielen können, da hierbei die intrinsische Motivation der Spieler mittels direkter Beeinflussbarkeit der verwendeten Verstärkung angesprochen wird. Außer- dem haben die Tester innerhalb des Punktestand Systems im Median eine größere Reichweite erspielen können. Daraus lässt sich schlussfolgern, dass sie durch das Erhalten beziehungsweise Ausbleiben von Belohnungen dazu motiviert wurden das Spiel stetig weiter spielen zu wollen. Daher hat sich dieses Belohnugnssystem als das für das im Praxisbeispiel verwendete Spiel optimale Be- lohnungssystem herausgestellt. Der subjektiv vom Spieler empfundene Spaßfaktor war bei beiden Belohnungssystemen gleich gut. Das Ergebnis der durchgeführten Forschung besagt, dass durch das Belohnungssystem das Spielverhalten und daraus resultierend der Wiederspielwert eines Spiels sowohl positiv als auch negativ beeinflusst werden kann. Die Art der Belohnung muss in Abhän- gigkeit von der im Gamedesign im Vordergrund stehenden Tätigkeit gewählt werden. Zielen das Belohnungssystem und die Hauptaktion des Spiels auf die gleiche Handlung ab, so werden Spieler intrinsisch dazu motiviert diese vermehrt ausführen zu wollen. Die optimale Art der Belohnung muss daher die individuellen Charakteristika eines Spiels unterstützen.
Ich habe ein multifunktionales Feuer Alarm System mit Umgebungserkennung, Gefahrenvorhersage, Zigbee-Übertragung, Client-System und anderen Systemen entworfen und hergestellt.
Sensorsystem: einschließlich Sensorauswahl, Hardware-Parametertest, Datenfehleroptimierung usw. Zigbee-Datenübertragungssystem: einschließlich Punkt-zu-Punkt-Datenübertragung, Aufbau einer Mesh-Übertragungsstruktur, Messung der Übertragungszeit, Messung der Übertragungsentfernung, Stabilitätstest und Anti-Interferenz-Fähigkeitstest.
Ich verwende die WIFI-Funktion von ESP32, um einen Server zu erstellen: Verbinde ich den Zigbee-Koordinator und das Gateway, um die Kombination aus Zigbee-Übertragungssystem und TCP-Netzwerkübertragung zu realisieren, und arbeite mit der mobilen APP zusammen, um grundlegende Funktionen zum Senden und Empfangen drahtloser Daten zu realisieren.
Informationsanzeigesystem: Mehrstufige Menü zeigt grundlegende Knoteninformationen, Zigbee-Netzwerkknotenstatus, Sensordaten usw. an.
Im Rahmen der vorgestellten Ergebnisse wird das Potential von dünnen Borkarbid-Schichten (B4C) hinsichtlich tribologischer Anwendungen untersucht. Dafür werden stöchiometrische B4C-Schichten mit verschiedenen mechanischen Eigenschaften mittels Laserpulsabscheidung auf Stahl mit Schichtdicken von 1 μm abgeschieden. Diese teils superharten Schichten werden anschließend durch Lasermikrostrukturierung mit Mikrostrukturen versehen, deren Einflüsse auf die tribologischen Eigenschaften anschließend mittels ball-on-disc-Verfahren im Tribometerversuch bestimmt werden. Die Charakterisierung sowohl der unstrukturierten als auch der strukturierten Bereiche erfolgt neben Rasterelektronenmikroskopie und Atomkraftmikroskopie insbesondere durch Ultrananoindentation zur Bestimmung der mechanischen Eigenschaften.
In this thesis, we implement, correct, and modify the compartmental model described in “Transmission Dynamics of Large Coronavirus Disease Outbreak in Homeless Shelter, Chicago, Illinois, USA, 2020”. Our objective is to engage in reading and understanding scientific literature, reproduce the results, and modify or generalize an existing mathematical model. We provide an overview of epidemiological models, focusing on simple compartmental SEIR models. We correct inaccuracies and misprints in the original implementation and use the limited-memory Broyden–Fletcher–Goldfarb–Shanno algorithm to fit the model’s parameters. Furthermore, we modify the model by introducing an additional compartment. The resulting model has a more intuitive interpretation and relies on fewer assumptions. We also perform the fitting process for this alternative model. Finally, we demonstrate the advantages of our modified implementations and discuss other possible approaches.
Currently, the Internet of Things (IoT) is connected to the virtual world through the Web of Things (WoT), allowing efficient utilization of real-world objects with Internet technologies. The WoT facilitates abstract interaction between applications and connected IoT devices, allowing owners to switch between devices while using multiple ones. To achieve this, virtual assets in WoT devices can be tokenized through smart contracts and transferred using hashed proof as transactions within blockchain networks that support virtual currencies. The goal of Web of Things is to establish connectivity, interoperability, and integration among IoT devices using web standards and protocols, reducing reliance on device manufacturers. This enables easy integration of Web 3.0 cryptocurrency for device management. This study proposes a solution for WoT applications involving different cryptocurrency definitions. Finally, simulation results are presented to demonstrate the tokenization-based ownership transfer in the Web of Things.
Die vorliegende Arbeit untersucht die Auswirkungen von TikTok auf die deutsche Buchbranche. Zunächst wird ein Überblick über die Hauptthemen der Arbeit gegeben und diese eingegrenzt. Unter Berücksichtigung der Forschungsfrage werden danach die Auswirkungen von TikTok auf das Kaufverhalten der Nutzer theoretisch untersucht. Anschließend werden die Auswirkungen auf die deutsche Buchbranche analysiert und die Chancen und Risiken für die Branche abgeleitet. Die Erkenntnisse des theoretischen Teils werden durch eine quantitative Umfrage ergänzt, um eventuell neue Erkenntnisse zu erlangen oder die bereits in den vorherigen Teilen erworbenen Erkenntnisse zu bestätigen oder zu widerlegen. Dabei wird die Auswirkung von TikTok auf das Kaufverhalten der Nutzer genauer untersucht. Dadurch soll ein Bild der tatsächlichen Situation und der tatsächlichen Auswirkungen von TikTok erlangt werden. Die Beantwortung der Forschungsfrage erfolgt schließlich auf Grundlage der aus Literaturrecherche gewonnenen Erkenntnisse und der Ergebnisse der empirischen Forschung. Es zeigt sich, dass TikTok Auswirkungen auf das Kaufverhalten der Nutzer im Bereich der Literatur und damit auch auf die deutsche Buchbranche hat.
Thermodynamische Charakterisierung von Nukleinsäuren mittels der UV-Vis-Absorptionsspektroskopie
(2023)
In dieser Arbeit wird eine DNA-Haarnadelstruktur mittels UV-Vis-Spektroskopie untersucht. Dabei wird die dekadische Extinktion in Abhängigkeit der Temperatur sowie dessen Probenumgebung (Puffer, pH-Wert, monovalenter Kationenkonzentration) gemessen. Mittels anschließender Datenanalyse in Python werden thermodynamische Parameter wie Schmelztemperatur, molare Enthalpie sowie molare Entropie bestimmt und bezüglich der Probenumgebungen verglichen
Die Auswertung von Kurznachrichten, die auf mobilen Endgeräten gespeichert sind, nimmt bei strafrechtlichen Ermittlungen immer mehr an Bedeutung zu. Häufig sind Ermittler hierbei mit umfassenden Nachrichtenmengen konfrontiert. Um einen Überblick zu erhalten, wäre eine kompakte Zusammenfassung der zahlreichen Nachrichten hilfreich. Eine Möglichkeit diese automatisiert zu erhalten, stellt die Themenmodellierung dar. Diese ist allerdings bei forensischen Kommunikationsdaten mit besonderen Herausforderungen verbunden. Zu diesen zählt die Tatsache, dass der Ermittler oft eine Erwartungshaltung an die Themen hat, wobei die für ihn interessanten Themen häufig nur zu einem geringen Anteil in den Daten vertreten sind. Um ihn bei dem Finden von Beweisen zu diesen Themen zu unterstützen, wurden zwei Methoden der halbüberwachten Themenmodellierung und Erweiterungen basierend auf Word Embeddings und paradigmatischen Relationen miteinander verglichen. Insbesondere für umgangssprachliche Kurznachrichten ist die Evaluierung der Themenmodellierung als schwierig anzusehen, da bisherige Studien gezeigt haben, dass gängige quantitative Evaluierungsmaße bei diesen nicht unbedingt die tatsächliche Interpretierbarkeit der Themen widerspiegeln. Daher bestand ein weiteres Ziel der Arbeit darin zu untersuchen, inwieweit die Ergebnisse einer regelmäßig angewendeten automatischen Evaluierungsmethode durch eine Nutzerstudie wiedergegeben werden. Insgesamt konnte festgestellt werden, dass nach der quantitativen Evaluierung die halbüberwachte Themenmodellierung unter Einbeziehung von paradigmatischen Relationen als besonders erfolgversprechend angesehen werden kann, während nach der Nutzerstudie vor allem die Word Embeddings die Ergebnisse der halbüberwachten Themenmodellierung verbessern konnten. Des Weiteren zeigte sich, dass keine Korrelation zwischen den Resultaten der automatischen Evaluierung und der Nutzerstudie vorlag.
Gerade bei kognitiven Tätigkeiten, bei denen viele Informationen aufgenommen, verarbeitet und daraus adäquate Entscheidungen abgeleitet werden müssen, kommt es drauf an, den Menschen optimal mit KI-Technik zu unterstützen und nicht zu überlasten. So spielen Systemtransparenz, Plausibilität der vorgeschlagenen Lösungen, Entscheidungsgewalt, beanspruchungsoptimale Informationsdarbietung und die Wahrnehmungsadäquatheit eine sehr bedeutsame Rolle. Phänomene und negative Effekte, wie zum Beispiel Technikstress, können als unterwünschte Beanspruchungsfolge auftreten. Gerade bei Umstrukturierungen und Veränderungsprozessen muss ein besonderes Augenmerk auf eine mögliche Doppelbelastung durch Parallelstrukturen (z.B. gleichzeitig verwendete Softwaresysteme neu und alt) gelegt werden. Somit stellt sich die Frage nach den Gelingensbedingungen für einen erfolgreichen Technikeinsatz. Es gilt, die Verantwortung für den Menschen in diesen Prozessen zu übernehmen. Der Artikel stellt die Herangehensweise und Lösungsansätze im Rahmen der PAL-Schwerpunkte an der BTU Cottbus-Senftenberg dar
Die vorliegende Arbeit befasst sich mit dem Aufbau eines Arbeitsprozesses, zur modellbasierten Kostenschätzung der Nutzungskosten einer Immobilie während der Planung. Mit der Zuordnung der Kostenstellen zu deren im Modell vorhandenen Verursachern, sollen die Kosten teilautomatisiert ermittelt werden.
Die Recyclingfähigkeit von faserbasierten Lebensmittelverpackungen wird durch Restanhaftungen des Lebensmittels vor Probleme gestellt. Dadurch ausgelöste Verkeimungen bei der Altpapierlagerung beeinträchtigen den Recyclingprozess. Die entwickelten Mikroorganismen beeinflussen wiederum die Herstellungskette innerhalb einer Papierfabrik, da es zu hohen organischen Belastungen kommen kann. Die Bachelorarbeit untersucht den mikrobiologischen Einfluss von Lebensmitteln, auf die Altpapierlagerung derer faserbasierter Verpackungen.
Das Ziel der vorliegenden Arbeit ist es eine Übersicht über aktuell relevante und am Markt vertretene Zutrittskontrollsysteme zu erstellen. Dazu wird zuerst die grundlegende Theorie hinter den einzelnen Zutrittskontrollsystemen vorgestellt. Im Anschluss werden die vorgestellten Zutrittskontrollsysteme durch selbst ausgewählte Kriterien nach Sicherheit und Komfort bewertet. Dabei stellte sich der Handvenenscan in dem Bereich Sicherheit durch das sehr niedrige Verlust-, Weitergabe- und Nachahmungsrisiko und im Bereich Komfort durch die kontaktlose Verwendung, dem geringen Aufwand, der niedrigen Schmutzempfindlichkeit und dem niedrigen Schmutzempfinden als hervorragend heraus. Anschließend wird ein Flussdiagramm als Entscheidungshilfe vorgestellt. Dieses hat den Zweck das geeignete Zutrittskontrollsystem für die private Nutzung oder der Nutzung im Unternehmen zu finden. Dabei werden aktuell auf dem Markt befindliche Produkte vorgestellt.
Wir verglichen die Reib- und Verschleißeigenschaften von verschieden beschichteten CoCrMo-Proben unter Belastungen, wie sie typischerweise im Knie auftreten. Es wurden verschiedene ta-C-Beschichtungen und die in der Medizin verbreiteten TiNbN-Beschichtungen verglichen. Dabei wurden die bei Ball-on-Disk-Tribometerversuchen an der Tribometerspitze entstehenden Kalotten ausgewertet. Wir konnten feststellen, dass unsere strukturierten ta-C-Oberflächen, gegenüber den üblichen Beschichtungen, weniger als 1/40 des Verschleißes zeigen, bei einer gleichzeitigen Reibwertreduzierung um bis zu 80%.
Ziel des Projektes war es, Implantate zu entwickeln, welche langlebiger als bisher übliche Knieimplantatslösungen sind, besonders in Bezug auf Verschleiß der artikulierenden Flächen. Hierfür sollten Verschleiß mindernde
Hartstoffschichten aus biokompatiblen Kohlenstoff (ta-C) und reibungsmindernde laserinduzierte Strukturen auf neuartigen CoCrMo-Implantaten aufgebracht werden. Wir konnten in angepassten tribologischen Untersuchungen zeigen, dass unsere Schicht-Struktur-Systeme, gegenüber TiNbN-Schichten auf gleichem Substrat, deutlich verbesserte mechanische Eigenschaften aufweisen. So zeigten diese einen auf 1/40 reduzierten Reibungsverschleiß bei gleichzeitiger Reibwertreduzierung ~1/5
Im Reverse Engineering und in der Malware-Analyse wurden bereits verschiedene Ansätze zur Visualisierung von Binärdaten entwickelt. Mit diesen lässt sich schnell ein Überblick über Dateien gewinnen, sodass beispielsweise verschiedene Regionen einer Datei identifiziert oder eine bösartige Datei einer Malware-Familie zugeordnet werden kann. In der vorliegenden Masterarbeit wird versucht, diese Ansätze auch sektorweise auf einen Datenstream anzuwenden. Dafür wird ein Demonstrator erstellt, mit dem Sektoren automatisiert nach Dateitypen klassifiziert werden können. Ziel ist es, einen Ansatz zur Verbesserung der aktuellen, signaturbasierten IT-forensischen Methoden zur Wiederherstellung von fragmentierten oder gelöschten Daten zu finden.
Die vorliegende Arbeit befasst mit der Thematik Sportmarketing und Sportsponsoring im Fußballbusiness, anhand des Beispiels am Verein VfB Stuttgart. Demnach wird die interne Sportmartketing-Struktur beim VfB Stuttgart, sowie deren Sponsoringpartnerschaft mit der Mercedes-Benz Bank analysiert. Das allgemeine Fußballbusiness, das Sportmarketing und das Sportsponsoring sind drei wesentliche Hauptpunkte dieser wissenschaftlichen Arbeit.
Sportjournalismus der Zukunft: Print oder Digital?! : am Fallbeispiel der Nordwest-Zeitung Oldenburg
(2023)
In dieser Arbeit wird sich mit dem Einfluss der digitalisierten Medienwelt auf den klassischen Sportjournalismus in Printmedien auseinandergesetzt. Mit Hilfe einer Analyse der Nordwest-Zeitung aus Oldenburg wird der Fokus dabei auf regionale Tageszeitungen gelegt. Kernaspekte der Untersuchung sind die Digitalisierung und ihre Folgen auf das Printmedium Zeitung, das aufgrund von Auflagenverlusten sowohl in der Literatur als auch in der öffentlichen Wahrnehmung oft als nicht zukunftsfähig bezeichnet wird. Dass dies nur bedingt korrekt ist und, warum das Medium Zeitung nicht so akut vom Aussterben bedroht ist, wie es oft dargestellt wird, wird mit Hilfe einer historischen Einordnung, einer Umfrage und drei Experteninterviews, die auch die zukünftige Ausrichtung der Nordwest-Zeitung thematisieren, dargestellt.
Der Einsatz von Gamification gewinnt zunehmend an Bedeutung und wird im Bereich des Personalwesens eingesetzt, um Personalauswahlprozesse einschließlich Bewerbungsverfahren, sowie die Candidate Journey von Bewerbern interaktiver und ansprechender zu gestalten. Gamification beschreibt dabei die Nutzung von Spielelementen und Spieldesignprinzipien in nicht-spielerischen Kontexten. Gamification soll die Nutzer auf verschiedene Arten ansprechen und das Verhalten, die Motivation und das Engagement positiv beeinflussen. Die vorliegende Bachelorarbeit untersucht den Einsatz von Gamification im Personalauswahlprozess. Dazu wird die folgende Forschungsfrage gestellt: Akzeptieren potenzielle Bewerber den Einsatz von Gamification im Personalauswahlprozess? Um die Forschungsfrage zu beantworten, wurde eine Studie zur Akzeptanz von Gamification in Form einer Online-Umfrage mit 200 Teilnehmern durchgeführt. Der Fokus der Studie lag auf der Untersuchung der Bewerberperspektive und deren Wahrnehmung von Gamification im Personalauswahlprozess. Hierbei wurden verschiedene Aspekte, wie die Einstellung zur Gamification, sowie persönliche Erfahrungen und Erwartungen in Zusammenhang des Prozesses beleuchtet. Die Ergebnisse der Studie zeigen, dass eine hohe Akzeptanz gegenüber Gamification im Personalauswahlprozess vorhanden ist. Auf dieser Grundlage wird Unternehmen empfohlen Gamification in Personalauswahlprozesse einzubinden, um potenzielle Bewerber zu erreichen und die Candidate Journey insgesamt zu optimieren.
Wir präsentieren erste Ergebnisse mit einem Prototyp der nächsten Ausbaustufe unseres kommerziellen Spektralverbreiterungs- und -komprimierungssystems basierend auf der Multipasszellentechnologie. Er ist für 2,0 mJ Eingangsenergie bei 0,9 ps Impulsdauer ausgelegt und soll komprimierte Ausgangsimpulse von unter 100 fs liefern. Bei der vollen Eingangsenergie wurde eine spektrale Verbreiterung auf 30 nm Bandbreite bei -10 dB mit einem Fourier-Transformlimit von 0.11 ps erzielt wurde. Die Transmission der Durchschnittsleistung betrug dabei 90,5 %
Es wird das selektive Laserentschichten und die Detektion von Oberflächenmaterialien wie Partikelrückständen auf Glasträgern demonstriert, die für das Handling von Bauteil-Wafern benötigt werden. Durch die Evaluierung des Systems mittels systematischer Parameterreihen kann gezeigt werden, dass Schichten selektiv abgetragen werden können und somit der Einsatz von chemischen Prozessen vermieden werden kann. Darüber hinaus wurde im Rahmen der Prozessentwicklung eine kamerabasierte und spektrale Überwachung implementiert. Die Ergebnisse werden hinsichtlich des Abtrag-Erfolgs und der spektrometrischen Analyse der Partikelrückstände mittels Laser induced breakdown spectroscopy (LIBS) dargestellt.
Die vorliegende Arbeit prüft das Phänomen Humor beginnend mit einer Annäherung, was Humor überhaupt ist und wie er sich in der praktischen Anwendung ausdrücken kann. Anschließend werden die Erkenntnisse der Wissenschaft zum Thema und die Bedeutung von Lachen und Heiterkeit für unsere Gesundheit und unser berufliches Leben betrachtet. Nachdem im Kapitel vier, Humor in die professionelle Beratungspraxis eingeordnet wird, werden im Kapitel fünf dessen Potentiale und Grenzen für Supervision und Coaching abgeklopft. Im abschließenden Kapitel „Humor ist Geschmackssache“ wird die Individualität von Beratenden und die Stimmigkeit von Humor in Beratungen betrachtet. Am Ende wird geschaut, wie die Auseinandersetzung mit dem Thema, mein eigenes supervisorisches Handeln, verändert hat. Damit das Thema lebendig (und auch unterhaltsam) bleibt, sind viele reale Praxisbeispiele aus meinen Supervisionssitzungen an geeigneten Stellen, in kursiver Schrift, eingeflossen.
Die folgende Arbeit befasst sich mit dem forensischen Informationspotential von Smart Home Security Geräten, in diesem Fall dem Starter-Kit der Firma Ring. Hierfür wurde die Funktionsweise des Systems genauer untersucht und es wurden Manipulationsversuche und Datensicherungen durchgeführt. Diese Manipulationen bezogen sich hier genauer auf die zwei internetfähigen Geräte, die Basisstation und die Kamera. Die Datensicherungen fokussierten sich insbesondere auf den allgemein gesicherten Daten und Hinweisen zu den Manipulationen.
In dieser Bachelorarbeit wird eine Sicherheitsanalyse für das Anwendungsszenario Traffic Steering im Open RAN durchgeführt. Dabei werden die Architektur und Sicherheitsaspekte des Open RAN sowie des Traffic Steering genauer analysiert. Nach der Ausarbeitung theoretischer Angriffsszenarien soll anschließend eine virtualisierte Open-RAN-Implementierung als Testumgebung für einen geeigneten Angriff dienen, der anschließend evaluiert wird.
Instant Messenger gehören zu den am häufigsten verwendeten Applikationen auf mobilen Endgeräten. Sie werden von nahezu allen Altersgruppen genutzt, dabei verwenden eine Vielzahl der Nutzer diese täglich zum Austausch von textuellen Nachrichten, Sprachnachrichten oder multimedialer Dateien. Die Anzahl der Nutzer nimmt seit Jahren kontinuierlich zu. Einer der verbreitetsten Anwendungen ist „Threema“, welche von 22 Prozent der Befragten in Deutschland genutzt wird. Weltweit beträgt die Anzahl der Nutzer elf Millionen. Im Kontext forensischer Untersuchungen wird die Bedeutung der Rekonstruktion von Artefakten von Instant Messenger-Diensten immer größer, da über diese auch ein Austausch von Informationen durch Täter, Opfer und Zeugen von Straftaten stattfindet. Solche Artefakte umfassen Bild- und Videomaterial sowie Standorte oder Textnachrichten. Diese können hilfreich sein, um den Tathergang zu rekonstruieren.
In der vorliegenden Bachelorarbeit werden die Artefakte der Instant Messengers „Threema“ anhand von Beispieldaten aufbereitet und ausgewertet. Dabei stehen Chatverläufe, ausgetauschte Standorte und Kontaktinformationen im Fokus, wobei sie keine Entschlüsselung der Daten oder Rekonstruktion von multimedialen Daten oder gelöschte Daten umfasst. Die Untersuchungen ergaben, dass die Daten in den SQLite- Datenbanken ThreemaData.sqlite und Threema.sqlite-wal abgelegt werden.
Diese Bachelorarbeit befasst sich mit der Repräsentation von lesbischen, schwulen, transsexuellen, bisexuellen, intergeschlechtlichen, asexuellen und queeren* Menschen in fiktiven seriellen Produktionen der am deutschen Markt tätigen Streaming- Plattformen Netflix, Prime Video und Disney+. Diese wird anhand von deren Richtlinien, bereits vorhandenen Studien und einer eigens durchgeführten Umfrage untersucht. Ziel dieser Arbeit ist herauszufinden, wie die LGBTQIA*-Community in den Serien dargestellt wird und ob diese Darstellung der Demografie Deutschlands entspricht. Weiterhin wird die objektive Wahrnehmung dieser Repräsentation untersucht und daran gemessen, ob die entsprechenden Personen ausreichend repräsentiert werden.
Die Arbeit beleuchtet Anforderungen an Beratung, insbesondere Familienberatung und deren Besonderheiten, die aus der Lebenswelt von Familien in der heutigen Zeit entstehen. Im speziellen wird auf Religiosität aus soziologischer Sicht eingegangen und eine Verbindung von Theorien zu Religiosität und Beratung untersucht.
Recently a deep neural network architecture designed to work on graph- structured data have been capturing notice as well as getting implemented in various domains and application. However, learning representation (feature embedding) from graphical data picking pace in research and constructing graph(s) from dataset remains a challenge. The ability to map the data to lower dimensions further makes the task easier while providing comfort in applying many operations. Graph neural network (GNN) is one of the novel neural network models that is catching attention as it is outperforming in various applications like recommender systems, social networks, chemical synthesis, and many more. This thesis discusses a unique approach for a fundamental task on graphs; node classification. The feature embedding for a node is aggregated by applying a Recurrent neural network (RNN), then a GNN model is trained to classify a node with the help of aggregated features and Q learning supports in optimizing the shape of neural networks. This thesis starts with the working principles of the Feedforward neural network, recurrent units like simple RNN, Long short-term memory (LSTM), and Gated recurrent unit (GRU), followed by concepts of Reinforcement learning (RL) and the Q learning algorithm. An overview of the fundamentals of graphs, followed by the GNN architecture and workflow, is discussed subsequently. Some basic GNN models are discussed in brief later before it approaches the technical implementation details, the output of the model, and a comparison with a few other models such as GraphSage and Graph attention network (GAN).
Die vorliegende Bachelorarbeit untersucht inwiefern Reallabore einen positiven Einfluss auf die Stadtentwicklung und die Immobilienwirtschaft haben. Dabei werden Reallabore als solche vorgestellt, anhand von fünf Projekten wird die Theorie mit der Praxis verknüpft und ein Fazit zum Einsatz dieser in der Stadtplanung und Immobilienwirtschaft getroffen
Die vorliegende Arbeit beschäftigt sich mit der Analyse und dem Vergleich der Release Kampagnen von Shirin Davids DirTea und Haftbefehls HafTea. Um eine Vergleichsgrundlage zu schaffen, wird durch eine qualitative Inhaltsanalyse ein Kategoriesystem erstellt. Dieses System nutzt das Werk Create Content! der Autoren Berens und Bolk als Basis, um moderne Marketingmaßnahmen herauszufiltern, anhand deren die Kampagnen analysiert werden. Betrachtet werden unter anderem die Marken, die Nutzung von Influencer Marketing und weitere Maßnahmen, die während der ersten sechs Monate Kampagnenzeit genutzt wurden. Das Ergebnis der Arbeit fasst die Gemeinsamkeiten und Unterschiede der Kampagnen zusammen.
Die vorliegende Masterarbeit setzt sich mit der psychosozialen Versorgung – insbesondere der sozialarbeiterischen Versorgung – von Kindern, Jugendlichen und ihren Familien in der spezialisierten ambulanten Palliativversorgung für Kinder und Jugendliche auseinander. Aufgrund der seit Neuestem gesetzlich festgeschriebenen Implementierung psychosozialer Arbeit in der spezialisierten ambulanten Palliativversorgung für Kinder und Jugendliche, hat die vorliegende Arbeit das Ziel die Bedeutung Sozialer Arbeit in diesem Arbeitsbereich darzulegen sowie auf Fachstandards zu untersuchen.
Mittels einer Gruppendiskussion werden bundesweit im Feld agierende Expert:innen dazu befragt, was es braucht, damit Soziale Arbeit in der SAPV-KJ gelingt. Grundlage bildet dafür ein Handlungskonzept aus Wissen – Haltung – Können.
Das Ergebnis dieser Arbeit ist ein Überblick über fachliche Standards in der
Erbringung Sozialer Arbeit in der spezialisierten ambulanten Palliativversorgung für Kinder und Jugendliche, der auf theoretischem Wissen und dem Erfahrungswissen der Expertinnen und Experten basiert.
Die mit einer Beschallungsanlage im Raum erreichbare akustische Verstärkung einer Beschallungsanlage wird durch die Rückwirkung des Lautsprechers auf das Mikrofon begrenzt. Der Untersuchungsgegenstand dieser Arbeit ist die Vorhersage des am Hörerort maximal erreichbaren Verstärkungsmaßes. Es werden bestehende Methoden erläutert und ein möglichst exaktes Vorhersagenverfahren elaboriert. Zur Synthese der dafür erforderlichen Raumimpulsantworten kommt sowohl die geometrische Schallfeldsimulation als auch die Finite-Elemente-Methode (FEM) zum Einsatz. In diesem Zusammenhang werden auch unterschiedliche Methoden zur Gewinnung der Randbedingungen thematisiert. In Abhängigkeit der Randbedingungen werden insbesondere mit der gute Approximationen der gemessenen Übertragungsfunktionen erreicht. Das Verfahren wird anhand konkreter Fallbeispiele durch Vergleich mit zwei der bestehenden deterministischen Methoden sowie mit erfassten Messwerten geprüft. Das angewendete Messverfahren wird detailliert beschrieben. Die Prädiktion wird ferner qualitativ anhand des Einflusses der Mikrofoncharakteristik, der Mikrofonposition sowie der äquivalenten Absorptionsfläche bewertet. Im Ergebnis liefert die Simulation realitätsnahe, jedoch nicht messgenaue Ergebnisse. Eine verlässliche Vorhersage normativ geforderter Verstärkungsmaße ist mit dem Verfahren nicht möglich. Dennoch übertrifft die numerische Simulation die rechnerisch deterministische Prädiktion in ihrer Detaillierung und damit der Interpretierbarkeit.
Das Mikro-SLM ermöglicht die Herstellung von Präzisionsbauteilen mit sehr geringen Abmessungen. Eine wesentliche Rolle für den Prozess spielt die in das pulverförmige Ausgangsmaterial eingebrachte Energie. Durch die Nutzung verschiedener Bestrahlungsregime mit kontinuierlicher und gepulster Bestrahlung kann der Energieeintrag variiert werden. In vergleichenden Untersuchungen konnten mit beiden Betriebsarten hohe Bauteildichten sowie hohe Strukturauflösungen generiert werden. Für beide Bestrahlungsregime wurden limitierende Faktoren für den Aufbau von Volumenkörpern festgestellt, welche nutzbare Prozessparameter einschränken. Unter Verwendung von kontinuierlicher Bestrahlung konnten höhere Aufbauraten erreicht werden.
Stahl ist nach wie vor einer der wichtigsten metallischen Werkstoffe unserer Zeit. Ein großer Vorteil gegenüber anderen Metallen ist die temperaturabhängige Mehrphasigkeit des Gefüges. Bei Temperaturen von ca. 800 °C kann ein Gittertyp dichterer Packung eingestellt werden und durch eine rasche Abschreckung auch im festen Aggregatzustand erhalten bleiben. Die Härte und die Verschleißbeständigkeit des Bauteils steigen erheblich an. In der vorliegenden Veröffentlichung wird die Steigerung der Einhärtetiefe im Bereich des Laserstrahlhärtens durch die Anpassung der Strahlgeometrie und Intensitätsverteilung an die Beschaffenheit der zu härtenden Zone des Bauteils dargelegt. Hierbei werden speziell dünnwandige, verzugsgefährdete Bauteile wie Dorne oder Messerschneiden betrachtet. Durch die Kombination aus angepasster Intensitätsverteilung und großem Aspektverhältnis kann der geometriebedingte Wärmestau für den Härteprozess nutzbar gemacht werden. Im Rahmen
der Charakterisierung des Laserstrahlhärteprozesses konnten Einhärtetiefen von bis zu 8 mm erreicht werden.
In dieser Arbeit werden das Parameterbasierte Verfahren StyleFlow und das semantische System StyleClip untersucht um das StyleGan zu kontrollieren. Dabei sollen die gewählten Attribute bestmöglich editiert werden und sich dabei möglichst wenig gegenseitig beeinflussen. Zusätzlich Experimente auf realen Daten zeigen, dass durch die Invertierung in den Raum des StyleGan Fehler in den Attributen auftreten und bei der Editierung vermehrt Artefakte auftreten. In weiteren Untersuchungen werden die beiden Systeme genutzt, um zum einem Veränderungen entsprechend dem realen Verhalten durchzuführen und zum anderem eine Attributverteilung von Identitäten auf eine andere zu Übertragen. Dabei wird auch die Bildqualität allgemein und für eine Gesichtserkennung untersucht. Mit den untersuchten Systemen sind diese Operationen zu einem gewissen Maß möglich, dabei fällt die Bewertung aufgrund relativer Metriken schwierig.
Die vorliegende Bachelorarbeit befasst sich mit der digitalen Blutspurenmusteranalyse in dreidimensionalen Modellen, welche mit Hilfe der Software „Blender“ durchgeführt wird. Das Ziel ist es, 3D-Koordinaten aus den gegebenen 2D-Koordinaten der Modelltextur zu generieren, um anschließend auf diesen Koordinaten Trajektorien einzeichnen zu können. Diese sollen die Flugbahnen der jeweiligen Blutstropfen zurück zum Ursprungsort repräsentieren.
In der heutigen Zeit sind elektrische Antriebe in vielen Bereichen des Alltags anzutreffen. Elektrofahrzeuge tragen dazu bei, Reisen umweltfreundlicher zu gestalten. Das Ziel dieser Arbeit ist die Elektrifizierung einer Rasenmäher Maschine mit Schwerpunkt auf VCU-Programmierung. In dieser Arbeit wird detailliert beschrieben, wie alle Funktionen, einschließlich Kommunikation, Tests usw., umgesetzt werden. Darüber hinaus werden auch zukünftige Entwicklungen und Fragen zur Gerätesicherheit untersucht.
Geprüft wird, ob und wie das Active Field Control (AFC) 4 Enhance Systems von Yamaha geeignet ist, den Klang eines TV-Studios an den Klang eines Konzertsaales anzunähern. Es wird dabei exemplarisch untersucht, welche Potentiale AFC4 bereithält.
Da sich die akustischen Anforderungen an Räume nach der Nutzungsart richten, müssen für variable Verwendungen besondere technische Voraussetzungen geschaffen werden. Für ein erfolgreiches Klangerlebnis wie in einem Konzertsaal ist die gute Durchmischung einzelner Stimmen durch einen entsprechenden Nachhall erforderlich.
Nach Darlegung der Ausgangsvoraussetzungen im TV-Studio der Hochschule Mittweida wird die Messung der Nachhallzeit im TV-Studio mit und ohne Einsatz des Systems AFC4 vorgestellt und die Messwerte werden erläutert.
Es wird nachgewiesen, dass das System AFC4 geeignet ist, Räume ohne bauliche Veränderungen so anzupassen, dass sie den Anforderungen verschiedener Darbietungsformen entsprechen.
Phishing Bedrohungen in Unternehmen : eine Untersuchung von Angriffstrends und Schutzmaßnahmen
(2023)
Diese Bachelorarbeit befasst sich mit Phishing Bedrohungen für Unternehmen, sowohl Angriffstrends als auch Schutzmaßnahmen.
Ziel der vorliegenden Arbeit ist es, bisher getroffene Schutzmaßnahmen zu analysieren und ihre Wirksamkeit anhand von zwei ausgewählten Fallbeispiele zu untersuchen. Dafür werden die Phishing Angriffe auf die amerikanischen Unternehmen „Twitter“ und „Uber“ genauer betrachtet und warum diese erfolgreich waren. Es soll beurteilt werden, ob die vorgestellten Leitfäden und Schutzmaßnahmen diese beiden Phishing Angriffe hätten verhindern können. Die Untersuchung zeigte, dass die gängigen Schutzmaßnahmen und das Einhalten von Leitfäden nicht ausgereicht haben, um die Unternehmen vor einem erfolgreichen Phishing Angriff zu schützen. Außerdem kommt dem Mensch bei der Bekämpfung von Phishing eine viel zu große Bedeutung zu und vernachlässigt das Handeln auf Managementebene.
> Lebenslagen und Probleme älterer Drogenabhängiger
> Voralterung von suchtkranken Menschen
> Abhängigkeits- und Suchtbegriff
> Komorbidität und Polytoxikomanie
> Hauptsubstanzen und Hauptdiagnosen
> Studien zu den Problemlagen von älteren Drogenabhängigen
> gesetzliche Rahmung für pflegebedürftige Drogenabhängige
> Grenzen der stationären Sozialen Arbeit mit älteren Drogenabhängigen
> Konzepte für Pflegeeinrichtungen für ältere Suchterkrankte
Die Bachelorarbeit befasst sich mit dem Phänomen der kryptierten Kommunikation. Diese wurde vor allem im Bereich des organisierten Betäubungsmittelhandels sowie -schmuggels zur Planung von Straftaten genutzt. Zunächst werden die Grundlagen im Bereich der Organisierten Kriminalität sowie des Rauschgifthandels und -schmuggels in Deutschland vermittelt. Anschließend wird auf die drei Anbieter Anøm, EncroChat und Sky ECC, die aktuell ausgewertet werden, eingegangen. Hierbei wird unter anderem die Datenerhebung dargestellt und eine Diskussion über die aktuell bestehende Beweiszulassung vor Gericht durchgeführt. Abschließend werden die Einflüsse der Kryptohandys sowie die polizeilichen Ermittlungserfolge dargelegt. Die Bachelorarbeit wird in Bezug auf die folgende These bearbeitet: „Kryptohandys weisen einen signifikanten Einfluss auf den Betäubungsmittelhandel im Bereich der organisierten Kriminalität in Deutschland auf und gelten in den meisten Fällen als wichtigstes Tat- sowie Beweismittel“.
Der Einsatz digitaler Mittel in der Tatortrekonstruktion soll in der Zukunft eine große Stütze in der Verbrechensaufklärung werden. Die Rekonstruktion des Bewegungsablaufs eines Opfers, ist als Bewegungsanalyse ein großer Teil dieses Forschungsgebietes. Um eine möglichst natürliche und anatomische korrekte Simulation der Bewegungsabläufe zu ermöglichen, werden Ragdollmodelle benötigt. Diese Arbeit befasst sich mit der Optimierung des Erstellungsprozesses und des Aufbaus dieser bereits bestehenden Ragdollmodelle, in der aktuellen forensischen Tathergangsrekonstruktion.
In vielen Polizeidienststellen ist die Optimierung des (digitalen) Asservatenmanagements ein zentrales Thema. Dies ist auch in der Kriminalpolizeiinspektion Saalfeld der Fall. Im Rahmen dieser Arbeit wurde das von der Thüringer Polizei genutzte Programm zur Spurenverwaltung “ZeSAR” um einen Reiter für die Asservierung von analogen Spuren erweitert und evaluiert. Grundlage hierfür waren die Erhebung einer Ist-Situation des zuvor herrschenden Asservatenmanagements und einer daraus resultierenden Problemanalyse. Weiterhin wurden Möglichkeiten diskutiert, wie das optimierte Asservatenmanagement auch auf digitale Spuren übertragen werden könnte. In diesem Bereich wurde erkannt,
dass die theoretischen Forschungsergebnisse bislang schwer in die Praxis übertragen werden konnten. Durch die vorliegende Arbeit wurde das Asservatenmanagement zunächst zugunsten der KPI Saalfeld qualitativ verbessert. Durch das anstehende Roll-Out des Asservaten-Reiters besteht die Möglichkeit, langfristig die landesweite Verwaltung zu optimieren.