accessibility__skip_menu__jump_to_main

Full text: VerifAI - Studie zur zielbasierten Standardisierung in der Prüfung und Zulassung intelligenter Entscheidungseinrichtungen von teilautonomen Überwasserfahrzeugen

Werden bei einem Machine-Learning-Ansatz mehrere Rechenschichten verwendet, so 
spricht man von Deep Learning (dt.: tiefes Lernen, DL) (Norvig & Russell, 2021). Deep- 
„earning-Methoden kommen zum Beispiel bei visueller Objekterkennung zur 
Anwendung, wo in der Regel ein Convolutional Neural Network (CNN, dt.: faltendes 
1euronales Netz) als Modell verwendet wird. Sofern es sich bei dem mit DL trainiertem 
Modell um ein neuronales Netz handelt, wird das Modell auch als ein tiefes neuronales 
\letz bezeichnet. 
sowohl in der Entwicklungsphase beim Training eines Machine-Learning-basierten 
Modells als auch während der Anwendungsphase kann es dazu kommen, dass das 
Modell weniger zuverlässige Ausgaben liefert. Ein bekanntes, aber lösbares, Problem 
stellt das Under- oder Overfitting dar (Burkov, 2019; Norvig & Russell, 2021). Wenn ein 
Modell bei seinen Trainingsdaten zu viele Fehler, also stark abweichende 
Ausgabewerte, liefert, dann spricht man von Underfitting. Underfitting kann aus für 
das Modell wenig informativen Daten oder der Wahl eines zu einfachen Modells 
folgen. Abbildung 5 illustriert dies am Beispiel einer linearen Regression, die an 
Datenpunkten genähert wird, die näherungsweise einer quadratischen Funktion folgen. 
3eim Overfitting hingegen ist das Modell zu stark auf die Trainingsdaten ausgerichtet 
und versagt bei der richtigen Ausgabe für Eingabewerte, die nicht in den 
Trainingsdaten enthalten waren. In Abbildung 5 ist dies daran erkennbar, dass der Fit 
alle Datenpunkte trifft, aber nicht mehr dem näherungsweisen quadratischen Verlauf 
der zugrundeliegenden Funktion folgt. Overfitting kann aus einem zu komplexen 
Modell (im Beispiel einer Näherungsfunktion eines zu hohen Grades) oder zu wenig 
Trainingsdaten folgen. Bei Overfitting spricht man auch davon, dass das Modell eine 
1ohe Varianz besitzt, da das Modell sehr stark streut. 
8] 
0 
Oo - 
Abbildung 5: Eine quadratische Verteilung von Punkten mit Ausreißern (grün) und zugehörige Ausgleichs: 
funktionen (orange). Underfitting (links), guter Fit (mitte) und Overfitting (rechts). 
Die Performanz von Kl-Systemen, die während der Entwicklungsphase erfolgreich 
funktioniert haben, kann sich in der Anwendungsphase mit der Zeit verschlechtern. Die 
Jrsache hierfür ist weniger eine intrinsische Verschlechterung am Kl-System selbst 
(welches im Verhalten als eingefroren betrachtet wird), sondern Änderungen an der 
Jmwelt, in der das KI-System agiert. Diese Veränderung von der Beziehung zwischen 
Modell und Realität wird als Konzept-Drift bezeichnet (Zliobaite, 2010). Ein Drift kann 
dabei unterschiedliche Formen annehmen: 
Statistische Verteilung der Daten verändert sich mit der Zeit. 
Die Beziehung zwischen Modell-Ein- und -Ausgabe verändert sich mit der 
Zeit. 
Die ursprünglich angenommene Ground Truth, beispielsweise Bezeichnung 
der Auswahl von Zielwerten, ändert sich. 
Aus diesem Grund spielt es eine große Rolle die Zuverlässigkeit von (eingefrorenen) 
Kl-Systemen auch nach ihrer Entwicklung zu prüfen. 
 eraunhofer Ch 
/erifAl 
Bundesamt für Seeschifffahrt und Hydrographie
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.