ZitatGehe ich (z.Z. noch) recht in der Annahme das:Absolut. Den Artikel habe ich vorbereitend geschrieben (...in Entwicklung).
Code Auswählen
- aiConHiddenLayers=80‑40‑20
- aiConTrainStart=3:1
- aiConActFunc=GAUSSIAN
noch nicht als Parameter eintragbar und als Parameter mit dieser u.s. aktuellen Version 2.0.0 im Contrib vom 10,12,2025 noch nicht genutzt werden kann?
Informationen zum neuronalen Netz der Verbrauchsvorhersage
letztes KI-Training: 27.12.2025 16:36:49 / Laufzeit in Sekunden: 589.53
letzte KI-Ergebnis Generierungsdauer: 0.13 ms
=== Modellparameter ===
Trainingsdaten: 6649 Datensätze (Training=5319, Validierung=1330)
Architektur: Inputs=18, Hidden Layers=64-32-16, Outputs=1
Hyperparameter: Learning Rate=0.001, Momentum=0.7, BitFail-Limit=0.35
Aktivierungen: Hidden=SIGMOID, Steilheit=0.9, Output=LINEAR
Zufallsgenerator: Mode=1, Periode=10
=== Trainingsmetriken ===
bestes Modell bei Epoche: 154 (von max. 15000)
Training MSE: 0.004
Validation MSE: 0.002
Validation Bit_Fail: 0
bester Trainingslauf: 0
Trainingsbewertung: ok (Val MSE Standard Deviation=0.000123, Val MSE Avg=0.002798)
=== Fehlermaße der Prognosen ===
MAE: 679.94 Wh
MedAE: 637.03 Wh
RMSE: 0.045
MAPE: 41.330 %
MdAPE: 33.187 %
R²: 0.014
Erläuterung der Kennzahlen
Train MSE / Validation MSE → wie gut das Netz trainiert und generalisiert. Daumenregel:
MSE < 0.01 → sehr gut
MSE 0.01–0.05 → gut
MSE > 0.1 → schwach
Interpretation Verhältnis Train MSE zu Validation MSE:
Validation ≈ Train → gute Generalisierung
Validation deutlich größer → Überfitting
Validation kleiner → Validierungsdaten sind einfacher oder Split begünstigt
Validation Bit_Fail → Anzahl der Ausreißer
MAE (Mean Absolute Error) → mittlere absolute Abweichung in Wh. Richtwerte bei typischem Verbrauch 500–1500 Wh:
< 100 Wh → sehr gut
100–300 Wh → gut
> 300 Wh → schwach
MedAE (Median Absolute Error) → Median der absoluten Fehler in Wh (toleriert einzelne Ausreißer besser)
< 100 Wh → sehr gut
100–200 Wh → gut
200–300 Wh → mittelmäßig
> 300 Wh → schwach
RMSE (Root Mean Squared Error) → mittlere quadratische Abweichung in Wh
Interpretation: wie groß Fehler im Mittel sind, mit Betonung auf Ausreißer
Richtwerte:
< 0.01 → sehr gut
0.01–0.03 → gut
0.03–0.05 → mittelmäßig / akzeptabel
> 0.05 → schwach
MAPE (Mean Absolute Percentage Error) → relative Abweichung in %
Richtwerte:
< 10 % → sehr gut - Modell liegt fast immer sehr nah an den echten Werten
10–20 % → gut - Prognosen sind solide, kleine Abweichungen sind normal
20–30 % → mittelmäßig / akzeptabel - Modell ist brauchbar, aber nicht präzise – für grobe Trends ok
> 30 % → schwach - Modell verfehlt die Werte deutlich, oft durch Ausreißer oder fehlende Features
⚠️ Vorsicht: bei kleinen Werten (<200 Wh) kann MAPE stark verzerren → MdAPE heranziehen
MdAPE (Median Absolute Percentage Error) → Median der prozentualen Fehler in % (robuster gegenüber kleinen Werten)
Richtwerte:
< 10 % → sehr gut
10–20 % → gut
20–30 % → mittelmäßig
> 30 % → schwach
R² (Bestimmtheitsmaß) → Maß für die Erklärungskraft des Modells. Je näher R² an 1 liegt, desto besser.
R² = 1.0 → perfekte Vorhersage, alle Punkte liegen exakt auf der Regressionslinie
R² > 0.8 → sehr gut - Modell erfasst den Großteil der Streuung → sehr zuverlässige Prognosen
R² = 0.6 – 0.8 → gut - Modell erklärt einen soliden Teil der Varianz → brauchbar für viele Anwendungen
R² = 0.5–0.6 → mäßig / grenzwertig - Modell liegt knapp über ,,zufällig" → Muster erkannt, Prognosen nur eingeschränkt nützlich
R² < 0.5 → schwach - Modell erklärt weniger als die Hälfte der Varianz → deutlicher Verbesserungsbedarf
R² = 0.0 → Modell erklärt gar nichts, es ist nicht besser als der Mittelwert der Daten
R² < 0.0 → Modell ist schlechter als einfach immer den Mittelwert vorherzusagen
⚠️ R² ist sehr empfindlich gegenüber Ausreißern und Varianz in den Daten.
Zitat von: DS_Starter am 25 Dezember 2025, 17:21:10Als kleinen Ausblick habe ich vorbereitend einen Artikel zur KI-Verbrauchsprognose erstellt. In der Zwischenzeit ist schon sehr viel passiert. Die Modellierung ist vorangeschritten. Es wird diverse Einstellmöglichkeiten zur Modellanpassung geben.
aiTrainStart=3
aiStorageDuration=3600
aiTreesPV=30
aiConActivate=1
aiConLearnRate=0.001
aiConMomentum=0.7
aiConShuffleMode=1
aiConShufflePeriod=10
aiConSteepness=0.9
aiConTrainAlgo=RPROP
- aiConHiddenLayers=80‑40‑20
- aiConTrainStart=3:1
- aiConActFunc=GAUSSIAN
# Versions History intern
164 my %vNotesIntern = (
165 "2.0.0" => "10.12.2025 initial implementation of neural network for consumption forecasting with AI::FANN ".
166 "aiControl: more keys for aiCon... ".
167 "edit commandRef, remove __batSaveSocKeyFigures ",
168 "1.60.7" => "21.11.2025 new special Reading BatRatio, minor code changes ",
Probably associated with
zigbee_Steckdosenleiste_1_CH2
zigbee_Steckdosenleiste_1_CH2
zigbee_Steckdosenleiste_1_CH3
zigbee_Steckdosenleiste_1_CH3
zigbee_Steckdosenleiste_1_CH4
zigbee_Steckdosenleiste_1_CH4
zigbee_Steckdosenleiste_1_CH5
zigbee_Steckdosenleiste_1_CH5
Update hat soweit problemlos geklappt.