Werden bei einem Machine-Learning-Ansatz mehrere Rechenschichten verwendet, so
spricht man von Deep Learning (dt.: tiefes Lernen, DL) (Norvig & Russell, 2021). Deep-
„earning-Methoden kommen zum Beispiel bei visueller Objekterkennung zur
Anwendung, wo in der Regel ein Convolutional Neural Network (CNN, dt.: faltendes
1euronales Netz) als Modell verwendet wird. Sofern es sich bei dem mit DL trainiertem
Modell um ein neuronales Netz handelt, wird das Modell auch als ein tiefes neuronales
\letz bezeichnet.
sowohl in der Entwicklungsphase beim Training eines Machine-Learning-basierten
Modells als auch während der Anwendungsphase kann es dazu kommen, dass das
Modell weniger zuverlässige Ausgaben liefert. Ein bekanntes, aber lösbares, Problem
stellt das Under- oder Overfitting dar (Burkov, 2019; Norvig & Russell, 2021). Wenn ein
Modell bei seinen Trainingsdaten zu viele Fehler, also stark abweichende
Ausgabewerte, liefert, dann spricht man von Underfitting. Underfitting kann aus für
das Modell wenig informativen Daten oder der Wahl eines zu einfachen Modells
folgen. Abbildung 5 illustriert dies am Beispiel einer linearen Regression, die an
Datenpunkten genähert wird, die näherungsweise einer quadratischen Funktion folgen.
3eim Overfitting hingegen ist das Modell zu stark auf die Trainingsdaten ausgerichtet
und versagt bei der richtigen Ausgabe für Eingabewerte, die nicht in den
Trainingsdaten enthalten waren. In Abbildung 5 ist dies daran erkennbar, dass der Fit
alle Datenpunkte trifft, aber nicht mehr dem näherungsweisen quadratischen Verlauf
der zugrundeliegenden Funktion folgt. Overfitting kann aus einem zu komplexen
Modell (im Beispiel einer Näherungsfunktion eines zu hohen Grades) oder zu wenig
Trainingsdaten folgen. Bei Overfitting spricht man auch davon, dass das Modell eine
1ohe Varianz besitzt, da das Modell sehr stark streut.
8]
0
Oo -
Abbildung 5: Eine quadratische Verteilung von Punkten mit Ausreißern (grün) und zugehörige Ausgleichs:
funktionen (orange). Underfitting (links), guter Fit (mitte) und Overfitting (rechts).
Die Performanz von Kl-Systemen, die während der Entwicklungsphase erfolgreich
funktioniert haben, kann sich in der Anwendungsphase mit der Zeit verschlechtern. Die
Jrsache hierfür ist weniger eine intrinsische Verschlechterung am Kl-System selbst
(welches im Verhalten als eingefroren betrachtet wird), sondern Änderungen an der
Jmwelt, in der das KI-System agiert. Diese Veränderung von der Beziehung zwischen
Modell und Realität wird als Konzept-Drift bezeichnet (Zliobaite, 2010). Ein Drift kann
dabei unterschiedliche Formen annehmen:
Statistische Verteilung der Daten verändert sich mit der Zeit.
Die Beziehung zwischen Modell-Ein- und -Ausgabe verändert sich mit der
Zeit.
Die ursprünglich angenommene Ground Truth, beispielsweise Bezeichnung
der Auswahl von Zielwerten, ändert sich.
Aus diesem Grund spielt es eine große Rolle die Zuverlässigkeit von (eingefrorenen)
Kl-Systemen auch nach ihrer Entwicklung zu prüfen.
eraunhofer Ch
/erifAl
Bundesamt für Seeschifffahrt und Hydrographie