schließend adaptiert werden. Mit Hilfe der Gewichte der "bestmatch" Neuronen für jeden
Trainingsvektor wird der entsprechende Trainingsfehler berechnet. Danach werden alle
Vektoren des Validationsdatensatzes zur Bestimmung der "bestmatch" Neuronen herangezo
gen, auch ohne daß anschließend die Gewichte adaptiert werden. Mit Hilfe der Gewichte
dieser "bestmatch" Neuronen für jeden Validationsvektor wird der entsprechende Validations
fehler berechnet. Auf diese Weise werden Trainings- und Validationsfehler jeweils nach
Beendigung einer Lernepoche berechnet.
Am Ende einer Lernphase können nicht nur die Trainings- und Validationsfehler, sondern
auch die Vorhersagefehler berechnet werden. Die Vorhersagefehler werden auf Basis des
Endzustands der ausgelernten Kohonen-Netze errechnet. Wie der Endzustand der Kohonen-
Netze bestimmt wird, wird in Kap.5.1.3 erklärt. Wie bei der Berechnung der Trainings- und
Validationsfehler werden auch bei der Berechnung der Vorhersagefehler alle Vektoren des
Vorhersagedatensatzes zur Bestimmung der "bestmatch" Neuronen herangezogen, ohne daß
anschließend die Gewichte der ausgelernten Kohonen-Netze adaptiert werden. Mit Hilfe der
Gewichte der "bestmatch" Neuronen für jeden Vorhersagevektor wird der entsprechende
Vorhersagefehler berechnet.
Bei der Wahl der Abhängigkeiten der Netzgröße und der maximalen Anzahl Lernepochen
von der Größe des Trainingsdatensatzes, d.h. von der Anzahl Lernvektoren, wurde darauf
geachtet, daß bestimmte Anforderungen an die Kohonen-Netze erfüllt sind. Diese Wahl sollte
z.B. so erfolgen, daß Kohonen-Netze im Verhältnis zu der Größe des Trainingsdatensatzes
(der Anzahl Lernvektoren) eine Mindestgröße besitzen sollten. Es sollte ein gewisses "Fas
sungsvermögen" der Netze garantiert sein. Wenn die Netze beginnen, auswendig zu lernen
(Kap.3.5.3), sollten alle Lernvektoren vom Netz auswendig gelernt werden können. Weiterhin
wurde darauf geachtet, daß während einer Lernphase, d.h. in Abhängigkeit von der Anzahl
Lernepochen, möglichst immer ein Minimum des Validationsfehlers auftritt (Kap.3.5.3).
Dieses Minimum sollte so ausgeprägt und tief wie möglich sein. Die Lernphase sollte lang
genug sein, um solch ein Minimum zeitlich zu erfassen. D.h. der Validationsfehler, der im
allgemeinen zu Beginn einer Lernphase abnimmt, sollte am Ende der Phase nicht noch
weiterhin abnehmen. Sondern dieser Fehler sollte im Verlauf der Lernphase (definiert durch
n Lmax) nicht zu spät - d.h. nicht erst kurz vorm Ende der Phase - entweder wieder leicht an-
steigen, wodurch ein Minimum zustande kommt, oder zumindest im Rahmen der Genauigkeit
ungefähr konstant bleiben. Damit das Minimum möglichst ausgeprägt ist, sollte der Valida
tionsfehler möglichst rasch abnehmen.
Doch aus bestimmten Gründen, die weiter unten näher erläutert werden, sollte auch der
Trainingsfehler möglichst schnell abnehmen (Kap.3.5.3). Im Gegensatz zum Validationsfehler
neigt der Trainingsfehler dazu, ganz zu verschwinden, d.h. die Null zu erreichen. Folglich
wurde darauf geachtet, daß dieser Fehler möglichst schnell die Null erreicht. Ein Trainings
fehler, der praktisch gleich Null ist, ist ein Indiz dafür, daß das Kohonen-Netz schon
auswendig gelernt hat. Das Auswendiglernen soll zwar vermieden werden, aber es kann
gerade mit Hilfe eines schnell abnehmenden Trainingsfehlers vermieden werden, wie später
gezeigt wird. Weiterhin sollten die Kohonen-Netze lang genug lernen, daß die Endergebnisse
der Netze nicht zu sehr von der Initialisierung abhängen. D.h. verschiedene Sätze von
Zufallszahlen, die für die Initialisierung verwandt wurden, sollten den Vorhersagefehler der
Netze nicht nennenswert ändern. Damit verbunden war die Vorstellung, daß die Netze am
Ende der Lernphase "gründlich genug" gelernt haben sollten. Und zu guter Letzt sollten die
Abhängigkeiten so gewählt werden, daß der Verbrauch von Speicher und Rechenzeit noch in
akzeptablem Rahmen bleibt. Dabei ist zu beachten, daß die Zeit für die Suche nach den
"bestmatch" Neuronen, die Teil des Kohonen-Algorithmus’ ist, zur Anzahl der Neuronen