chungen [5.3]. Um die Stärken des Minimums- und des cut-off-Kriteriums jeweils auszunut
zen, wird somit folgendes kombinierte Minimum-cut-off-Lernabbruchkriterium vorgeschlagen:
Während der Lernphase werden die Validations- und Trainingsfehler jeweils als Funktion
der Anzahl Lernepochen unabhängig voneinander verfolgt. Es wird jeweils der Netzzustand
bei dem Zeitpunkt des gerade aktuellen zeitlich lokalen Minimums des Validationsfehlers
abgespeichert. Der Abbruch erfolgt spätestens dann, wenn das cut-off-Kriterium [5.4] erfüllt
ist, d.h. wenn der Trainingsfehler während des Verlaufs der Lernphase kleiner als die Hälfte
des Validationsfehlers geworden ist. Dieser cut-off-Zeitpunkt wird aber nur dann als Ab
bruchpunkt genommen, wenn der Validationsfehler zu diesem Zeitpunkt von den Validations
fehlern zu allen vorherigen Zeitpunkten der kleinste ist. Wenn nicht der Fehler zu diesem
Zeitpunkt, sondern der zu einem vorangegangenen Zeitpunkt der kleinste ist, wird dieser
vorangegangene Zeitpunkt als Abbruchpunkt genommen. Der zu diesem Zeitpunkt gespei
cherte Netzzustand wird dann als Endzustand der trainierten Kohonen-Netze angesehen, d.h.
mit diesem Netzzustand haben dann die Kohonen-Netze ausgelernt.
Dieser Endzustand kann dann als Ausgangsbasis für Vorhersagen dienen, ohne daß er
weiterhin verändert wird (siehe auch Kap.3.5.2). Die Vorhersagefehler werden auf Basis des
Endzustands der ausgelernten Kohonen-Netze berechnet. Dabei werden alle Vektoren des
Vorhersagedatensatzes zur Bestimmung der "bestmatch" Neuronen herangezogen, ohne daß
anschließend die Gewichte der ausgelernten Kohonen-Netze adaptiert werden (Kap.5.1.2). Für
die Bestimmung der "bestmatch" Neuronen werden prinzipiell nur die Indikationsmuster der
Vorhersagevektoren benötigt (Kap.3.6.3). Nach der Bestimmung der "bestmatch" Neuronen
werden die Prognosemuster der Gewichtsvektoren dieser Neuronen als Vorhersage inter
pretiert. Sind diese Vorhersage vektoren vollständig, d.h. bestehen sie sowohl aus Indikations
ais auch aus Prognosemustern, können die entsprechenden Vorhersagefehler berechnet
werden. Das entspricht einer Vorhersage im Hindcastmodus. Die Vorhersagefehler können
dann nicht mehr berechnet werden, wenn die Vorhersagevektoren unvollständig sind, d.h.
wenn sie nur noch aus Indikationsmustern bestehen. Dies ist der Fall, wenn die Kohonen-
Netze im Wasserstandsvorhersagedienst Operationen eingesetzt werden. Das entspricht einer
Vorhersage im Forecastmodus. Im Falle univariater Zeitmuster und der multivariaten Regres-
sion-plus-Window Zeitmuster werden für die Indikationsmuster nur aktuelle Messungen
benötigt. Bei den übrigen Zeitmustern dagegen werden Zusatzprognosen gebraucht
(Kap.2.2.1). Der Vorhersagefehler, der im Hindcastmodus berechnet wurde, kann dem
Wasserstandsvorhersagedienst einen ersten Hinweis auf die Güte und Verläßlichkeit der
neuronalen Vorhersagen bieten.
Im folgenden wird das "kombinierte Minimum-cut-off-Lernabbruchkriterium" diskutiert.
Die Validations- und Trainingsfehler sind zu Beginn der Lernphase dann von gleicher
Größenordnung, wenn aus der geordneten Menge aller Zeitmustervektoren diejenigen
Trainingsvektoren selektiert wurden, die diese Menge am besten repräsentieren und die
"meiste" Information aus dieser Menge in sich bergen (zur Beschreibung eines Maßes für die
Information siehe Kap.4.3). Wenn der Validationsfehler schon zu Beginn der Lernphase
größer als das Doppelte des Trainingsfehlers wäre, würde die Phase gleich zu Beginn
abgebrochen. Um den Validationsfehler zu senken, wurde der schon beschriebene nicht
unerhebliche Aufwand bei der Entwicklung des Verfahrens für die Selektion der Trainings
vektoren betrieben (Kap.4.3). Als Alternative zur Senkung des Validationsfehlers könnte man
möglicherweise hoffen, daß sich beide Fehler vor dem Auseinanderklaffen doch noch ein
wenig angleichen. Dadurch wäre es möglich, das cut-off-Kriterium nicht gleich zu Beginn der
Lernphase, sondern etwas verzögert dann zu aktivieren, wenn die Fehler sich angeglichen
hätten. Doch diese Alternative ist nutzlos, da sich die Validations- und Trainingsfehlerkurven