Parameter Konfiguration
Training ohne Hyperparameter-Suche
Wenn in der Anfrage mindestens ein Parameter in der Sektion parameters
angegeben ist und keine Hyperparameter explizit definiert werden, deaktiviert die App die automatische Hyperparameter-Suche. Stattdessen wird das Modell direkt mit den festgelegten Parametern trainiert. Die Parameter, die nicht angegeben sind, behalten dabei ihre Standardwerte.
Parameter-Übersicht und Beschreibung
Hier ist eine vollständige Beschreibung der Parameter, die im Training verwendet werden:
Parameter
Beschreibung
Standardwert
num_classes
Anzahl der Klassen (nur relevant für Klassifikationsaufgaben).
null
binary_encoding
Steuert die binäre Kodierung für Kategorien.
null
num_lstm_layers
Anzahl der LSTM-Schichten im Modell. Je mehr Schichten, desto komplexer und leistungsfähiger das Modell.
2
lstm_units
Anzahl der Neuronen pro LSTM-Schicht. Mehr Neuronen erlauben es dem Modell, mehr Muster zu lernen.
50
activation
Aktivierungsfunktion für die LSTM-Schichten. Optionen: tanh
, relu
, sigmoid
, linear
.
"tanh"
learning_rate
Die Geschwindigkeit, mit der das Modell seine Parameter anpasst. Ein niedriger Wert erhöht die Genauigkeit, verlängert jedoch die Trainingszeit.
0.001
optimizer_type
Optimierungsalgorithmus, der zur Fehlerreduktion genutzt wird. Optionen: adam
, sgd
, rmsprop
usw.
"adam"
clipnorm
Begrenzung der Gradienten-Normen, um Training instabiler Modelle zu vermeiden.
null
loss
Verlustfunktion, die während des Trainings minimiert wird. Standardwert ist mean_squared_error
(MSE) für Regressionsaufgaben.
"mean_squared_error"
dropout_rate
Prozentsatz der Neuronen, die während des Trainings zufällig deaktiviert werden, um Overfitting zu vermeiden.
0.0
num_dense_layers
Anzahl der zusätzlichen Dense-Schichten (vollständig verbunden).
0
dense_units
Anzahl der Neuronen in den Dense-Schichten.
50
dense_activation
Aktivierungsfunktion für Dense-Schichten. Optionen: relu
, tanh
, sigmoid
, linear
.
"relu"
use_batch_norm
Legt fest, ob Batch-Normalisierung verwendet wird (Glättung der Eingabeverteilung).
false
metrics
Liste der Metriken, die zur Bewertung des Modells verwendet werden. Beispiele: mse
(Mean Squared Error).
["mse"]
stateful
Gibt an, ob das Modell den Zustand zwischen Batch-Trainingszyklen beibehält.
true
batch_size
Größe der Trainingsbatches. Kleinere Batches erfordern weniger Speicher, verlangsamen aber das Training.
1
Verhalten bei der Angabe von Parametern
Wenn mindestens ein Parameter in der Sektion
parameters
angegeben ist, verwendet die App direkt diese Werte für das Training.Keine Hyperparameter-Suche: Die App überspringt die Suche nach optimalen Hyperparametern, da Sie bereits spezifische Werte festgelegt haben.
Standardwerte: Alle nicht angegebenen Parameter behalten ihre Standardwerte aus der oben gezeigten Liste.
Beispiel-Konfiguration
Einfache Anfrage ohne Hyperparameter-Suche:
Erklärung:
Die Parameter
num_lstm_layers
,lstm_units
,activation
,dropout_rate
undlearning_rate
wurden festgelegt.Alle nicht angegebenen Parameter (z. B.
num_dense_layers
,batch_size
,loss
) verwenden ihre Standardwerte.Das Modell wird direkt mit den festgelegten Parametern trainiert, ohne die Hyperparameter-Suche zu starten.
Wann sollte man Parameter selbst festlegen?
Wenn Sie bereits Erfahrung mit Modellen haben und spezifische Einstellungen vorgeben möchten.
Wenn Sie schnell ein Modell trainieren möchten, ohne auf die automatische Optimierung zu warten.
Bei kleinen Datensätzen, bei denen eine aufwendige Hyperparameter-Suche nicht notwendig ist.
Zusammenfassung
Durch das manuelle Festlegen der Parameter wird das Training beschleunigt, da die automatische Hyperparameter-Suche deaktiviert wird. Gleichzeitig ermöglicht die App, nicht definierte Parameter flexibel mit bewährten Standardwerten zu ergänzen.
Last updated