accessibility__skip_menu__jump_to_main

Full text: Wasserstandsvorhersage mittels neuronaler Netze (BSH-Berichte, Nr. 15)

chungen [5.3]. Um die Stärken des Minimums- und des cut-off-Kriteriums jeweils auszunut 
zen, wird somit folgendes kombinierte Minimum-cut-off-Lernabbruchkriterium vorgeschlagen: 
Während der Lernphase werden die Validations- und Trainingsfehler jeweils als Funktion 
der Anzahl Lernepochen unabhängig voneinander verfolgt. Es wird jeweils der Netzzustand 
bei dem Zeitpunkt des gerade aktuellen zeitlich lokalen Minimums des Validationsfehlers 
abgespeichert. Der Abbruch erfolgt spätestens dann, wenn das cut-off-Kriterium [5.4] erfüllt 
ist, d.h. wenn der Trainingsfehler während des Verlaufs der Lernphase kleiner als die Hälfte 
des Validationsfehlers geworden ist. Dieser cut-off-Zeitpunkt wird aber nur dann als Ab 
bruchpunkt genommen, wenn der Validationsfehler zu diesem Zeitpunkt von den Validations 
fehlern zu allen vorherigen Zeitpunkten der kleinste ist. Wenn nicht der Fehler zu diesem 
Zeitpunkt, sondern der zu einem vorangegangenen Zeitpunkt der kleinste ist, wird dieser 
vorangegangene Zeitpunkt als Abbruchpunkt genommen. Der zu diesem Zeitpunkt gespei 
cherte Netzzustand wird dann als Endzustand der trainierten Kohonen-Netze angesehen, d.h. 
mit diesem Netzzustand haben dann die Kohonen-Netze ausgelernt. 
Dieser Endzustand kann dann als Ausgangsbasis für Vorhersagen dienen, ohne daß er 
weiterhin verändert wird (siehe auch Kap.3.5.2). Die Vorhersagefehler werden auf Basis des 
Endzustands der ausgelernten Kohonen-Netze berechnet. Dabei werden alle Vektoren des 
Vorhersagedatensatzes zur Bestimmung der "bestmatch" Neuronen herangezogen, ohne daß 
anschließend die Gewichte der ausgelernten Kohonen-Netze adaptiert werden (Kap.5.1.2). Für 
die Bestimmung der "bestmatch" Neuronen werden prinzipiell nur die Indikationsmuster der 
Vorhersagevektoren benötigt (Kap.3.6.3). Nach der Bestimmung der "bestmatch" Neuronen 
werden die Prognosemuster der Gewichtsvektoren dieser Neuronen als Vorhersage inter 
pretiert. Sind diese Vorhersage vektoren vollständig, d.h. bestehen sie sowohl aus Indikations 
ais auch aus Prognosemustern, können die entsprechenden Vorhersagefehler berechnet 
werden. Das entspricht einer Vorhersage im Hindcastmodus. Die Vorhersagefehler können 
dann nicht mehr berechnet werden, wenn die Vorhersagevektoren unvollständig sind, d.h. 
wenn sie nur noch aus Indikationsmustern bestehen. Dies ist der Fall, wenn die Kohonen- 
Netze im Wasserstandsvorhersagedienst Operationen eingesetzt werden. Das entspricht einer 
Vorhersage im Forecastmodus. Im Falle univariater Zeitmuster und der multivariaten Regres- 
sion-plus-Window Zeitmuster werden für die Indikationsmuster nur aktuelle Messungen 
benötigt. Bei den übrigen Zeitmustern dagegen werden Zusatzprognosen gebraucht 
(Kap.2.2.1). Der Vorhersagefehler, der im Hindcastmodus berechnet wurde, kann dem 
Wasserstandsvorhersagedienst einen ersten Hinweis auf die Güte und Verläßlichkeit der 
neuronalen Vorhersagen bieten. 
Im folgenden wird das "kombinierte Minimum-cut-off-Lernabbruchkriterium" diskutiert. 
Die Validations- und Trainingsfehler sind zu Beginn der Lernphase dann von gleicher 
Größenordnung, wenn aus der geordneten Menge aller Zeitmustervektoren diejenigen 
Trainingsvektoren selektiert wurden, die diese Menge am besten repräsentieren und die 
"meiste" Information aus dieser Menge in sich bergen (zur Beschreibung eines Maßes für die 
Information siehe Kap.4.3). Wenn der Validationsfehler schon zu Beginn der Lernphase 
größer als das Doppelte des Trainingsfehlers wäre, würde die Phase gleich zu Beginn 
abgebrochen. Um den Validationsfehler zu senken, wurde der schon beschriebene nicht 
unerhebliche Aufwand bei der Entwicklung des Verfahrens für die Selektion der Trainings 
vektoren betrieben (Kap.4.3). Als Alternative zur Senkung des Validationsfehlers könnte man 
möglicherweise hoffen, daß sich beide Fehler vor dem Auseinanderklaffen doch noch ein 
wenig angleichen. Dadurch wäre es möglich, das cut-off-Kriterium nicht gleich zu Beginn der 
Lernphase, sondern etwas verzögert dann zu aktivieren, wenn die Fehler sich angeglichen 
hätten. Doch diese Alternative ist nutzlos, da sich die Validations- und Trainingsfehlerkurven
	        
Waiting...

Note to user

Dear user,

In response to current developments in the web technology used by the Goobi viewer, the software no longer supports your browser.

Please use one of the following browsers to display this page correctly.

Thank you.