get FritzBox luaData xhr 1 lang de page log xhrId log filter wlan useajax 1 no_sidrenew nop
und poste bitte das Ergebnis.Zitat von: Gisbert am 14 April 2026, 09:07:36Zitat von: RalfRog am 13 April 2026, 23:18:31BTW: Gisbert wie hast du das Fehlermeldeproblem des nicht verfügbaren PBS-Storage im PVE gelöst?Hallo Ralf,
stimmt, da gibt es viele Meldungen im PVE Log. Bisher war es mir nicht bewusst. Ich hab deinen Beitrag oben dazu gelesen, aber nicht genau verstanden, wie du die Fehlermeldungen weg bekommst.
Kannst du es nochmals beschreiben, was du genau beim PBS und PVE gemacht hast?
Viele Grüße Gisbert
pvesm set <ID des Storage> --disable 0 bzw. 1vzdump: backup-e1643110-2d06 <== mein Wyse PBS Backup
comment taegliches Backup auf PBS
schedule 04:30
enabled 1
fleecing 0
mode suspend
node pve
notes-template {{guestname}}:{{node}}-{{vmid}}: Wyse Backup taeglich der Server
notification-mode notification-system
prune-backups keep-all=1
script /usr/local/bin/vzdump-hook-script-wyse.pl <== Pfad zum selbst erstellten HookScript (Rechte chmod 755)
storage wyse-pbs <== Storage ID
vmid 101,102,103
vzdump: backup-ae36d6ca-ed42 <== mein Tuxis Backup
comment Woechentliches Backup f%C3%BCr Server ohne Veraenderungen (Sonntag 1%3A00)
schedule sun 04:00
enabled 1
fleecing 0
mailnotification always
mode suspend
node pve
notes-template {{guestname}}:{{node}}-{{vmid}}, woechentliches Backup
notification-mode notification-system
prune-backups keep-weekly=6
repeat-missed 1
storage tuxis-pbs <== mein Tuxis Backup
vmid 101,103,102
vzdump: backup-24376893-65ca
comment Monatliches Backup lokal
schedule sat *-1..7 04:00
compress zstd
enabled 1
fleecing 0
mailnotification failure
mode suspend
node pve
notes-template {{guestname}}:{{node}}-{{vmid}}: lokales Backup monatlich der Server
notification-mode notification-system
prune-backups keep-last=2
storage local
vmid 101,102,103
/usr/share/doc/pve-manager/examples/vzdump-hook-script.pl
Auszug der Trigger
$phase eq 'job-init'
$phase eq 'job-start'
$phase eq 'job-end'
$phase eq 'job-abort'
$phase eq 'backup-start'
$phase eq 'backup-end'
$phase eq 'backup-abort'
$phase eq 'log-end'
$phase eq 'pre-stop'
$phase eq 'pre-restart'
$phase eq 'post-restart'
#!/bin/bash
# script um den Backupserver zu starten wenn ein Backup ansteht. Danach wieder Ausschalten
# dieses Hook-Skript (nano /usr/local/bin/vzdump-hook-script) zum Backup-Auftrag hinzufügen: nano /etc/pve/jobs.cfg
# by AME 05/2023
#----------------------- Variablen --------------------------------------------------------------------------------#
PATH=/usr/sbin:${PATH}
# SET-X damit die Ausfuehrung protokolliert wird
#set -x
storeid=wyse-pbs # Variable - um welches Storage handelt es sich
mac="11:22:33:44:55:66" # MAC Adresse des PBS-Servers
host="1.2.3.4" # Hostname oder IP des PBS-Servers
nic=eno1 # Netzwerk-Karte über die WOL läuft
#---------------------- Funktionen --------------------------------------------------------------------------------#
# Raum für funktionen im Script
#----------------------- Programmablauf ---------------------------------------------------------------------------#
#
if [ "$1" == "job-init" ]; then # wenn ein backup job rein kommt dann
echo "HookLog: Wecke Backserver" # zusätzliche eigene Logeintraege per echo und Hinweis HookLog:
wakeonlan $mac # starte den Backup-Server wegen rtcwake eigentlich unnoetig
sleep 60s # warte 60 Sekunden auf Abschluss des Starts
echo "HookLog: Enable Storage wyse-pbs"
pvesm set $storeid --disable 0 # der Storage wird enabled
# Teste per Storage Verfügbarkeit "pvesm status" ob -PBS erreichbar
until [ "$act" == "true" ]; do # arbeite die Schleife ab bis die variable "ack" wahr ist
com=$(pvesm status --storage $storeid | tail -1); # Abfrage über den Status des Storage
[[ $com =~ ($storeid+ +)(pbs+ +)(active|inactive) ]]; # Statusabfrage enthält "wyse-pbs pbs active"
if [ ${BASH_REMATCH[3]} == active ]; then # der server/storage ist erreichbar also aktiv?
echo "HookLog: Backup-Server ist erreichbar"
act=true # variable "act" wird wahr um aus dem loop rauszukommen
sleep 6s
exit 0
else
((c=c+1)) # counter
fi
if [ $c == 180 ]; then # wenn der server nach 180 sec. nicht erreichbar ist exit 1, Wartezeit anpassen
echo "HookLog: ERROR Backup-Server ist nicht erreichbar"
sleep 2s
echo "HookLog: Disable Storage wyse-pbs"
pvesm set $storeid --disable 1 # deaktiviere den Speicher wieder
exit 1
fi
sleep 1s
done # until ende
fi # job-init Ende
if [ "$1" == "job-end" ]; then # Wenn der Backup Job erledigt ist dann
echo "HookLog: Backup erledigt, warte 20 Sekunden dann wird der Backup-Server gestoppt"
sleep 20s
echo "HookLog: Disable Storage wyse-pbs"
pvesm set $storeid --disable 1 # der Storage wir disabled, sonst ist er nicht erreichbar und>
# ssh root@$host -p 22 "poweroff < /dev/null &" # der Backupserver wird heruntergefahren muss ich noch erarbeiten siehe Lösung Gisbert
# passendes Konzept welches Verify, Prune, GC und den SyncJob auf Tuxis beachtet nachdem der eigentliche BackupJob gelaufen ist
fi
exit 0
{ "models": [ { "name": "models/gemini-2.5-flash", "version": "001", "displayName": "Gemini 2.5 Flash", "description": "Stable version of Gemini 2.5 Flash, our mid-size multimodal model that supports up to 1 million tokens, released in June of 2025.", "inputTokenLimit": 1048576, "outputTokenLimit": 65536, "supportedGenerationMethods": [ "generateContent", "countTokens", "createCachedContent", "batchGenerateContent" ], "temperature": 1, "topP": 0.95, "topK": 64, "maxTemperature": 2, "thinking": true }, { "name": "models/gemini-2.5-pro", "version": "2.5", "displayName": "Gemini 2.5 Pro", "description": "Stable release (June 17th, 2025) of Gemini 2.5 Pro", "inputTokenLimit": 1048576, "outputTokenLimit": 65536, "supportedGenerationMethods": [ "generateContent", "countTokens", "createCachedContent", "batchGenerateContent" ], "temperature": 1, "topP": 0.95, "topK": 64, "maxTemperature": 2, "thinking": true }, { "name": "models/gemini-2.0-flash", "version": "2.0", "displayName": "Gemini 2.0 Flash", "description": "Gemini 2.0 Flash", "inputTokenLimit": 1048576, "outputTokenLimit": 8192, "supportedGenerationMethods": [ "generateContent", "countTokens", "createCachedContent", "batchGenerateContent" ], "temperature": 1, "topP": 0.95, "topK": 40, "maxTemperature": 2 }, { "name": "models/gemini-2.0-flash-001", "version": "2.0", "displayName": "Gemini 2.0 Flash 001", "description": "Stable version of Gemini 2.0 Flash, our fast and versatile multimodal model for scaling across diverse tasks, released in January of 2025.", "inputTokenLimit": 1048576, "outputTokenLimit": 8192, "supportedGenerationMethods": [ "generateContent", "countTokens", "createCachedContent", "batchGenerateContent" ], "temperature": 1, "topP": 0.95, "topK": 40, "maxTemperature": 2 }, { "name": "models/gemini-2.0-flash-lite-001", "version": "2.0", "displayName": "Gemini 2.0 Flash-Lite 001", "description": "Stable version of Gemini 2.0 Flash-Lite", "inputTokenLimit": 1048576, "outputTokenLimit": 8192, "supportedGenerationMethods": [ "generateContent", "countTokens", "createCachedContent", "batchGenerateContent" ], "temperature": 1, "topP": 0.95, "topK": 40, "maxTemperature": 2 }, { "name": "models/gemini-2.0-flash-lite", "version": "2.0", "displayName": "Gemini 2.0 Flash-Lite", "description": "Gemini 2.0 Flash-Lite", "inputTokenLimit": 1048576, "outputTokenLimit": 8192, "supportedGenerationMethods": [ "generateContent", "countTokens", "createCachedContent", "batchGenerateContent" ], "temperature": 1, "topP": 0.95, "topK": 40, "maxTemperature": 2 }, { "name": "models/gemini-2.5-flash-lite", "version": "001", "displayName": "Gemini 2.5 Flash-Lite", "description": "Stable version of Gemini 2.5 Flash-Lite, released in July of 2025", "inputTokenLimit": 1048576, "outputTokenLimit": 65536, "supportedGenerationMethods": [ "generateContent", "countTokens", "createCachedContent", "batchGenerateContent" ], "temperature": 1, "topP": 0.95, "topK": 64, "maxTemperature": 2, "thinking": true } ] }
ZitatIch habe zwei DWD-Vorhersagen von zwei Nachbarorten konfiguriert. Kann das was damit zu tun haben?Wenn du damit zwei Wetter-Devs meinst, glaube ich das nicht. Die wären zu dicht nebeneinander und werden auch gemerged.
ZitatKönnte eine Ursache auch sein, dass die Werte vom DWD zum Zeitpunkt der Event-Trigger noch vom Vortag sind?Das ist ein guter Hinweis! Ich feuere kurz nach Mitternacht. Vllt. wäre es besser das erst nach 1:00 oder gar 3:00 zu machen damit vorher DWD sicher aktualisiert hat.