Refine
Document Type
- Bachelor Thesis (23)
- Master's Thesis (6)
- Conference Proceeding (1)
- Diploma Thesis (1)
Year of publication
Language
- German (31) (remove)
Keywords
- Maschinelles Lernen (31) (remove)
Zur automatisierten Planung und Steuerung einer Anlage wird eine über viele Jahre entwickelte und stetig fortschreitende Software der Firma UTIKAL Automation GmbH & Co eingesetzt.
Diese basiert auf „klassischen“ Regeln bzw. Heuristiken zur Steuerung und Kontrolle der Abläufe, z.B. Überprüfung Maschinenbelegung, Verhinderung Kollision zwischen Transportwagen, Abstimmung von Fahrten mehrerer Transportwagen etc. Erzielt werden gute bis sehr gute Produktivität und Durchsätze in einer Anlage, jedoch ist das Ziel dieser Arbeit mittels Einsatz von maschinellem Lernen (Deep Reinforcement Learning) dies noch zu steigern und den Grad an Automatisierung zu erhöhen. Dies betrifft sowohl Produktivität und Durchsatz als auch ein hoffentlich intelligentes Eingreifen in unerwünschten oder unerwarteten Situationen ausgelöst z.B. durch Störungen.
Die vorliegende Bachelorarbeit beschäftigt sich mit maschinellem Lernen im Kontext des autonomen Fahrens. Das Ziel dieser Arbeit ist das Anlernen eines Steuerungsmechanismus eines simulierten Fahrzeugs, auf Grundlage maschineller Lernverfahren, speziell dem Deep Reinforcement Learning. Dazu werden zunächst die Grundlagen des autonomen Fahrens und des maschinellen Lernens geklärt. Mit der Unity-Engine und dem ML-Agents Toolkit wurden Szenen erstellt, in denen Agenten trainiert werden. In verschiedenen Szenen mit unterschiedlichen Komplexitäten und Aufgaben sollen die Agenten lernen ein simuliertes Fahrzeug zu steuern und die jeweilige Aufgabe zu erfüllen. Um das Fahrzeug zu steuern muss der Agent die Längs- und Querführung übernehmen. Die Aufgaben können zum Beispiel anhalten in einem Zielbereich, ausweichen vor Hindernissen oder folgen eines bestimmten Streckenverlaufs umfassen. Die Ergebnisse zeigten, dass es möglich ist ein simuliertes Fahrzeug, mit einem durch Deep Reinforcement Learning angelernten Steuerungsmechanismus, zu steuern. In den meisten Szenen zeigten die Agenten ein gutes Verhalten. Durch die Ergebnisse konnten Erkenntnisse gewonnen werden, welche Faktoren bei Lernvorgängen besonders wichtig sind. Es zeigte sich, dass unter anderem die Wahl einer guten Belohnungsfunktion ausschlaggebend war.
In dieser Arbeit wird ein Konzept für die Fahrprofilauswahl mittels machine learning vorgestellt. Hierbei wird ein Einblick in die Grundlagen und Methodiken des maschinellen Lernens sowie Fahrzeugelektronik gegeben. Des Weiteren wird das Thema künstliche neuronale Netzwerke detailliert erklärt, da es in der Arbeit Anwendung finden wird. Im späteren Verlauf wird ein LSTMNetzwerk implementiert und ausgewertet, um aus den Erfahrungen wichtige Erkenntnisse ableiten zu können. Aufbauend auf den Erkenntnissen, wird ein Konzept für die Fahrprofilauswahl definiert.
In dieser Arbeit werden die Verfahren GLVQ und GRLVQ mit der Sobolev-Metrik erweitert und an verschiedene Datensätze mit funktionalen Daten getestet. Außerdem wird ein Ansatz vor-gestellt, die Prototypen durch Überlagerungen von Basisfunktionen darzustellen. Dieser Ansatz wird zusätzlich noch auf den GMLVQ angewendet. Hierfür betrachtete man die Gaußfunktio-nen und Sigmoidfunktionen als Basisfunktionen. Dabei wurden mit der Sobolev-Metrik sehr gute Resultat erzielt.
Der Grad der Digitalisierung hat sich in den letzten Jahren um ein Vielfaches gesteigert und auch zukünftig wird es immer essenzieller sein, dass ein Verarbeitungsprozess oder eine Maschine intelligent arbeitet. Um diese zu einer „Smart Machine“ upzugraden, sind in allen Bereichen des Maschinenbaus gewisse Updates notwendig. Dies ist oftmals sehr zeitaufwändig und damit auch außerordentlich kostenintensiv. Aus diesem Grund ist es gerade bei Neuentwicklungen von hoher Wichtigkeit, die Komponenten richtig abzustimmen und zu wählen, damit ein möglichst hoher Grad an Digitalisierung gewährleistet wird.
Die Vorteile der Digitalisierung im Maschinenbau sind nahezu unendlich. Dies fängt bereits bei der Erfassung von Daten an, welche in Echtzeit übermittelt werden und dadurch ein lückenloses Monitoring ermöglicht wird. Die Produktion durch Taktzeiterhöhung zu steigern, welche erst durch die Analyse dieser Daten sichtbar wird, aber auch besseres Alarmmanagement und vorausschauende Wartungen sind nur einige wenige funktionale Vorteile der Digitalisierung in diesem Bereich.
Die Routeco GesmbH ist ein Distributionsunternehmen im Sektor der industriellen Automatisierung, diese wird überwiegend mit Produkten und Lösungen von Rockwell Automation realisiert. Dabei steht nicht der Produktverkauf, sondern die optimale und individuell gestaltete Lösung für den Kunden im Vordergrund.
Die Industrie (OEMs) in Österreich agiert sehr unterschiedlich im Zusammenhang mit dem Vorantreiben der Digitalisierung im Maschinenbau, somit ist es schwierig, hier aktiv die Kun-den zu erreichen. In der Praxis kann eine Marktanalyse bei den bestehenden Interessenten durchgeführt werden, um dadurch einen detaillierten Einblick in die österreichischen Unter-nehmen zu bekommen und um kundenspezifische Lösungen individuell anbieten zu können.
Diese Masterarbeit zeigt einen Ansatz zur Vorhersage von Zugverspätungen mit Hilfe von Supervised Learning. Dazu werden Modelle mit verschiedenen Algorithmen getestet und miteinander verglichen. Außerdem wird gezeigt, wie das entwickelte Vorhersagemodell in eine Blockchain-Anwendung integriert werden kann.
In regelmäßigen Abständen werden bei Milchkühen in Deutschland Daten über die Zusammensetzung der Milch erhoben, um eine gleichbleibende Qualität sicherstellen zu können. Gleichzeitig dienen die Milchinhaltsstoffe als erste Indikatoren für eine Veränderung des Stoffwechsels der Kuh und ein damit einhergehend erhöhtes Erkrankungsrisiko. Aus diesem Grund wird in dieser Arbeit untersucht, ob es möglich ist, Vorhersagen über Erkrankungen bei Milchkühen anhand dieser Milchleistungsprüfungsdaten zu treffen. Dafür werden maschinelle Lernverfahren angewendet, im Speziellen Multi-Label- und binäre Klassifikationsverfahren. Die genutzten Klassifikatoren umfassen Multi-Layer Perzeptrone, Naive Bayes-Klassifikatoren sowie Support Vector Machines mit verschiedenen Kernels. Die Vorhersagen werden mit Konfusionsmatrizen und den dazugehörigen Evaluationsmaßen ausgewertet und verglichen.
Die vorliegende Arbeit dient als Grundlage zur Umsetzung für eine automatisierte Klassifizierung von textuellen Fehlermeldungen. Das Hauptziel ist ein grundlegendes Verständnis für die Herangehensweise zum Aufbau eines maschinellen Lernsystems zu erreichen. Es werden verschiedene Arten des maschinellen Lernens erläutert. Auswahl und Aufbau eines Lernmodells werden von unterschiedlichen Seiten beleuchtet, um einen Überblick der einzelnen Schritte zu gewinnen. Zur Gewährleistung eines praktischen Lösungsansatz wurden bereits erste Tests mit einem ausgewählten Lernmodell durchgeführt.
Durch die steigende Leistungsfähigkeit von Prozessoren und Datenübertragungstechniken hat die Entwicklung und Anwendung von künstlicher Intelligenz, exemplarisch das maschinelle Lernen (engl. Machine Learning – ML) und die Methode des Deep Learning, in den letzten Jahren stark an Bedeutung gewonnen. Hierbei stellt sich die Frage, wie diese Technologien in einem weiteren zukunftsträchtigen Entwicklungsfeld, zum Beispiel bei der Entwicklung moderner Mobilitätskonzepte und hochautomatisierter/autonomer Fahrzeuge, eingesetzt werden können. Potentielle Möglichkeiten der Anwendung von AI im Entwicklungsprozess eines hochautomatisierten Fahrzeugs werden vorgestellt, aber auch die entscheidenden Herausforderungen diskutiert. Darüber hinaus wird der Unterschied zwischen verschiedenen Ansätzen ausgeführt. Dazu werden sowohl Randbedingungen als auch Herausforderungen mit Hilfe eines einfachen Beispiels aus dem täglichen Verkehrsgeschehen veranschaulicht.
Diese Arbeit beschäftigt sich mit dem Erstellen semantischer Encodings von Bilddaten. Um diese Kodierungen aus den Daten zu extrahieren, wird ein künstliches neuronales Netzwerk auf
Videobild Interpolation trainiert. Die daraus erlernten Encodings sollen anschließend auf ihre Anwendbarkeit in einer anderen Aufgabe der KI gestützten Bildverarbeitung, der Extraktion von Landmarken auf Menschen, getestet werden.
In dieser Arbeit werden die algorithmischen Grundlagen der Machine Learning Verfahren LVQ1 und LVQ3 erläutert. Für LVQ3 werden mehrere Ansätze zur Anpassung der Lernrate betrachtet, die anschließend verglichen werden sollen. Dazu werden vier verschiedene Experimente durchgeführt, wobei zwei Datensätze Verwendung finden, deren Ursprung in medizinischen Bilddaten liegt.
Diese Arbeit beschäftigt sich damit, verschiedene Methoden des maschinellen Lernens zu testen und mit der Frage, ob es damit möglich ist, auffällige Anmeldungen zu erkennen. Es ist von Interesse, spezielle abnormale Anmeldemuster zu erkennen, welche im Kontext eines Angriffes genutzt werden. Diese können anschließend verwendet werden, um Angreifer bzw. kompromittierte Nutzer aus einem Netzwerk zu identifizieren. Die Schwierigkeit, dementsprechende auffällige Anmeldungen zu erkennen, steigt dabei mit zunehmender Anzahl an Angriffen. Des Weiteren beeinflusst die Vielfalt in den Verhaltensweisen die Erkennung. Demzufolge werden verschiedene Methoden getestet, mehrere Szenarien simuliert und anschließend werden anhand eines echten Testfalls die Methoden bzw. das Verfahren validiert. Als Endergebnis der Arbeit entstehen eine Software und ein Verfahren zur Erkennung von auffälligen Anmeldungen.
Soziale Netzwerke spielen eine große Rolle für die digitale Kommunikation. Menschen tauschen sich aus und teilen Informationen. Die große Anzahl an Nachrichten, die täglich veröffentlicht werden, stellt Entwickler vor ein großes Problem: den Mangel an Kontrolle. Obwohl es Regeln gibt, halten sich viele Nutzer nicht daran. Diese Problematik erfordert ein verbessertes System, welches toxische Inhalte erkennt und klassifiziert. Ziel der Arbeit war es, verschiedene Methoden für maschinelles Lernen zu kombinieren. Weiterhin wurden die Fragen beantwortet, was Toxizität in Verbindung mit sozialen Medien bedeutet und ob
Toxizität in einem linearen Zusammenhang mit Hasssprache steht. Das bestmögliche Ergebnis der Klassifizierung ist ein micro F1-Wert von 0.76192.
Die Überwachung sozialer Online-Netzwerke spielt eine zunehmend wichtige Rolle, um die polizeilichen Aufgaben hinsichtlich Kriminalprävention und Gefahrenabwehr auch im virtuellen Raum effektiv und effizient wahrnehmen zu können. Gleichzeitig machen das enorme Volumen und die Komplexität der Daten eine manuelle Bearbeitung nahezu unmöglich. Es müssen automatisierte Verfahren entwickelt werden, welche sogenannte Gefährder in sozialen Online-Netzwerken sicher erkennen können. Für die Entwicklung, das Training und die Evaluation von Modellen für das Maschinelle Lernen werden standardisierte Referenzdaten benötigt. Die vorliegende Arbeit beschäftigt sich mit der Entwicklung eines solchen Goldstandards mit Trainings- und Testdaten für Algorithmen zur Detektion von Gefährdern in sozialen Online-Netzwerken. Es werden Kriterien für die Auswahl relevanter Profile und Attribute erarbeitet und Anforderungen für die Strukturierung und Ablage der Daten formuliert. Weiterhin werden konkrete Profile und Feature-Kandidaten sowie ein XML-Schema und Dateilayout für die Bereitstellung der Daten des Goldstandards vorgeschlagen. Abschließend werden die Ergebnisse kritisch gewürdigt und ein Ausblick für zukünftige Arbeiten gegeben.
Die vorliegende Arbeit beschäftigt sich mit der KI-gestützten Klassifikation von Flügelbildern verschiedener Spezies der Familie Calliphoridae, auch Schmeißfliege genannt. Hauptziel soll dabei die Klassifikation nach Gattung sowie nach Spezies sein. Außerdem soll eine automatische Landmarkendetektion auf Fliegenflügeln entwickelt werden und anschließend als Merkmalsextraktor für das Klassifikationsmodell dienen. Dabei werden unterschiedliche Methoden der Bildverarbeitung sowie des maschinellen Lernens angewandt, kombiniert und bezüglich der Ergebnisse analysiert und verglichen.
Die immer größer werdenden virtuellen Welten von Computerspielen mit spannendem und glaubhaftem Inhalt zu füllen, ohne die Entwicklungszeit enorm in die Höhe zu treiben, ist eine der großen Herausforderungen für Spielentwickler heutzutage. Eine Möglichkeit dieses Problem anzugehen ist der Einsatz computergestützter Generierungsalgorithmen um manuellen Aufwand zu verringern. Die vorliegende Arbeit befasst sich mit der Umsetzung dreier Data-To-Text-Ansätze zum Zweck der automatischen Generierung von Questtexten aus einer Datenstruktur in der Spieleentwicklungsumgebung Unity. Die entstehenden Implementierungen werden im Anschluss evaluiert auf Eignung für den Anwendungsfall. Folgende Methoden zur Realisierung der Texte werden angewandt: Templating, Templating mit Template-Generierung aus einer kontextfreien Grammatik, sowie die Oberflächenrealisierungsbibliothek SimpleNLG
In den letzten Jahren tauchten im Internet Videos auf, die Politiker bei sonderbaren Reden und Prominente in pornographischen Filmen zeigten. Dieses Videophänomen bezeichnet die Öffentlichkeit als Deepfakes. Das kommt daher, dass sie in Fakt fake sind, produziert mit Hilfe von „deep learning“ – einer Form von maschinellem Lernen. Viele Leute befürchten das durch Missbrauch dieser Videos vor allem für Fake News ernstzunehmende Folgen haben könne. Für sie ist diese Technologie ein wahr gewordener Albtraum in einer Welt in der Fake Videos Chaos verbreiten. Diese Arbeit versucht sich mit mehreren aufkommenden Software Programmen, die die Verbindung von Sprachsynthese und Filmmanipulation ermöglichen zu beschäftigen. Der Verfasser dieser Arbeit wird positive Anwendungen für die Technologien in Betrachtung ziehen genauso wie die potenziellen negativen Konsequenzen.
Active Learning (AL) ist eine besondere Trainingsstrategie im überwachten maschinellen Lernen, mit dem Ziel die Accuracy eines Klassifikators zu verbessern, indem ein Klassifikator mit nur wenig gelabelten, aber dafür hoch informativen Datenpunkten (DP) gelernt wird. In der medizinischen Forschung liegen oftmals nur wenig gelabelte DP vor. AL kann eine sinnvolle Strategie sein, um die Kosten und den Aufwand für das Labeln ungelabelter DP zu senken. Mit Pool-Based AL wurden bisher die größten Erfolge verzeichnet. In der vorliegenden Arbeit wurden zwei biologische, binäre Klassifikationsprobleme mit Uncertainty Sampling Pool-Based AL und Query by Bagging Comitee Pool-Based AL untersucht. Der Generalized Learning Vector Quantization (GLVQ) und ein Multilayer Perzeptron (MLP) wurden als Klassifikatoren verwendet. Anhand eines linear trennbaren und eines nicht linear trennbaren Datensatzes wurden die Auswirkungen der Anzahl an gelabelten DP, mit welcher die Klassifikatoren zu Beginn trainiert wurden, auf die Accuracy untersucht. Die AL-Accuracy näherte sich für das anfängliche Training der Klassifikatoren mit 10 % gelabelten DP bereits stark an die Accuracy im klassischen maschinellen Lernen an und war teilweise sogar größer. In einem weiteren Experiment wurden daher die Klassifikatoren anfänglich mit nur 1 % gelabelten DP trainiert. Es wurde die Auswirkung der Anzahl nachgelabelter DP, mit welcher die Klassifikatoren nachtrainiert wurden, auf die Accuracy untersucht. Für den linear trennbaren Datensatz war die Anwendung von AL mit dem GLVQ und 10 nachgelabelten DP sowie mit dem MLP und 50 nachgelabelten DP erfolgreich. Bei dem nicht linear trennbaren Datensatz wurde mit dem MLP zumindest eine Tendenz, dass AL die Accuracy verbessert, festgestellt. Jedoch reichten 50 nachgelabelte DP nicht aus.
In vielen Einsatzbereichen sind digitale Nachbildungen realer Gebäude von großer Wichtigkeit. Die Erstellung dieser Nachbildungen erfordert bei älteren bzw. historischen Gebäuden allerdings meist erheblichen Vermessungs- und Nachbearbeitungsaufwand mit großem Personal- und Zeitbedarf. Häufig wurde ein Gebäude stilistisch an die jeweilige Zeit angepasst, sodass einzelne Zustände nur mit historischem Bildmaterial reproduzierbar sind.
Am Beispiel mehrerer ausgewählter, aktuell existierender Gebäude der Stadt Mittweida sind realitätsnahe, digitale und veränderbare Modelle mittels eines möglichst automatisierten Workflows erstellt.
Die äußere Erscheinung dieser Modelle kann mit dem entwickelten System automatisiert an andere Stile anpasst werden, welche durch z.B. historisches Bildmaterials von Gebäuden vorgegeben sind. Aufgrund der vielfältigen Einsatzbereiche und weiten Verbreitung finden hierfür Verfahren der Photogrammetrie für die Erstellung und neuronale Netze für die Stilanpassung Anwendung, welche auf handelsüblicher Hardware eingesetzt werden können. Eine Evaluierung erfolgte durch bildlichen Vergleich der stilangepassten Modelle mit dem zugehörigen Bildmaterial.
Die vorliegende Arbeit beschäftigte sich mit einer Analyse von Methoden des maschinellen Lernens, mit Hinblick auf ihre unterstützende Wirkung für den intralingualen Übersetzungsprozess von deutschen standardsprachlichen zu Leichte Sprache Texten. Für diesen Zweck wurde ein Vergleich von relevanten Methoden, in diesem Fall die der statistischen maschinellen Übersetzung und die der neuronalen maschinellen Übersetzung aus dem Bereich des maschinellen Lernens und des Natural Language Processing aufgestellt. Dabei wurde der potenzielle Funktionsumfang, die Voraussetzungen sowie die Implementierbarkeit verglichen. Das Ergebnis dieses Vergleiches war es das, dass Potenzial durchaus gegeben ist mittels dieser Methoden den Übersetzungsprozess zu unterstützen. Jedoch bedingt das Fehlen eines Textkorpus für deutsche Standard Sprache und ein dazugehöriger Textkorpus der Leichten Sprache, das diese Methoden nicht implementiert, wurden konnten. Es konnten drei Funktionen umgesetzt werden, die den Übersetzungsprozess unterstützen. Zum einen die Funktion für die Anzeige von gebräuchlicheren Synonymen von Wörtern, eine Funktion für die automatische Generierung von
Zusammenfassungen und eine Funktion für Anzeige von Umformulierungen für Zahlen aus den Bereichen hohe Zahlen, alte Jahreszahlen und Prozent Zahlen. Die Evaluation der Funktionen mittels einer zufällig generierten Wortliste und ausgewählter Nachrichten für die Zusammenfassung und Zahlenbereiche ergab. Das diese Funktionen eine unterstützende Wirkung haben, jedoch stark fehleranfällig sind.
Diese Arbeit behandelt die Herleitung und Verwendung eines alternativen Unähnlichkeitsmaßes im Neural - Gas - Algorithmus. Dabei werden zuerst ausgewählte Algorithmen vorgestellt und in das Feld der Vektorquantisierer eingeordnet. Anschließend wird die sogenannte Tangentenmetrik mathematisch motiviert und vermutete Vorteile gegenüber anderen Metriken anhand künstlich
erzeugten und real existierenden Beispielen experimentell untersucht. Weiterhin werden die Laufzeitkomplexität und beobachtete Limitierungen des neuen Algorithmus näher beleuchtet.
Tiefes verstärkenden Lernen ist eine Kombination aus tiefem Lernen und ver-stärkendem Lernen, die ihre jeweiligen Vorteile erbt, jedoch immer noch einige Probleme beim tiefen Lernen oder beim verstärkenden Lernen aufweist. In die-sem Artikel wird die Stabilität des Algorithmus analysiert und untersucht, um die relevanten Probleme zu lösen.
Das Ziel dieser Masterarbeit ist die Evaluierung des Realtime Multi-Person 2D Pose Estimation Frameworks OpenPose. Dazu wird die Forschungsfrage gestellt, bis zu welcher Pixelgröße ein Mensch allgemein von dem System mit einer Sicherheit von über 50% richtig detektiert und dargestellt wird. Um die Forschungsfrage zu beantworten ist eine Studie mit sieben Probanden durchgeführt wurden. Aus der Datenerhebung geht hervor, dass der gesuchte Confidence Value zwischen 110px und 150px Körpergröße in von Menschen digitalen Bildern erreicht wird.
Offensive Sprache im Internet ist ein stark diskutiertes Problem in sozialen Medien. Angriffe richten sich oftmals gegen Einzelpersonen, können aber auch auf Gruppen und andere Strukturen abzielen. Die Erkennung angreifender Inhalte funktioniert in vielen Ansätzen bereits sehr gut. Die Erkennung der Ziele hingegen ist bisher nur wenig erforscht. Die vorliegende Arbeit befasst sich mit der Aufarbeitung des aktuellen Forschungsstandes zu offensiver gerichteter Sprache, den Grundlagen derer Erkennung und dem Vergleich verschiedener Ansätze. Die Auswirkungen von Vorverarbeitung und Parametrisierung der Modelle werden analytisch diskutiert.
Die neue Generation der künstlichen Intelligenz (KI) hat sich in den letzten Jahren zu einem Hot Spot in der in- und ausländischen Forschung entwickelt. Darunter ist der typische Vertretermaschinelles Lernen (ML), das als diese Kategorie von Algorithmen bezeichnet. Es bildet Vorhersagen und Urteile, indem es große Mengen vorhandener oder generierter Daten analysiert und lernt, um die besten Entscheidungen zu treffen. Chinas neue Generation von KI befindet sich in einer kritischen Phase der rasanten Entwicklung und wurde vorläufig in Energie- und Energiesystemen eingesetzt.
Die vorliegende Bachelorarbeit beschäftigt sich mit Objekterkennung im Kontext des maschinellen Lernens. Analysiert werden zwei Kategorie Algorithmen R-CNN und YOLO von Objekterkennung. Mit Matlab werden der offizielle Code durchführen, um darin einiges Objekt zu erkennen. Verschiedene Algorithmen haben unterschiedlichen Prinzipien und Prozesse. Nach Läufen können sie bei viele Bereiche verglichen und bewertet worden. Die Ergebnisse zeigten die Genauigkeit usw. Im Rahmen dieser Bachelorarbeit werden 3 verschiedenen Algorithmus getestet, um der Objekterkennungsfähigkeit der drei Algorithmen für denselben Datensatz unter derselben Betriebsumgebung zu vergleichen.