fhempy: Tuya Cloud

Begonnen von dominik, 30 Juli 2021, 21:36:48

Vorheriges Thema - Nächstes Thema

dominik

Zitat von: thburkhart am 31 Januar 2023, 21:17:05

schon versucht
geht auch nicht
permission denied
sudo rm? Mit root geht alles löschen.
fhempy -  https://github.com/fhempy/fhempy: GoogleCast, Tuya, UPnP, Ring, EQ3BT, Nespresso, Xiaomi, Spotify, Object Detection, ...
Kaffeespende: https://paypal.me/todominik

thburkhart

#766
löschen ging

aber beim update 2023.01.31 21:00:18 1:
2023.01.31 21:00:18 1: Downloading https://raw.githubusercontent.com/dominikkarall/fhempy/master/controls_pythonbinding.txt
2023.01.31 21:00:18 1: pythonbinding
2023.01.31 21:00:18 1: UPD FHEM/10_BindingsIo.pm
2023.01.31 21:00:18 1: UPD FHEM/10_fhempy.pm
2023.01.31 21:00:19 1: UPD FHEM/10_fhempyServer.pm
2023.01.31 21:00:19 1: open ./FHEM/10_fhempyServer.pm failed: Permission denied, trying to restore the previous version and aborting the update
2023.01.31 21:00:19 1:
2023.01.31 21:00:19 1: Downloading https://raw.githubusercontent.com/PatricSperling/FHEM_SST/master/controls_SST.txt
2023.01.31 21:00:19 1: SST


ok
dann lösche ich fhempy_server auch
1 RASPI4B, 1 RASPI3B, 2 CUL, 2 Jeelink, 60 Tuya-Devices (Schalter, Dimmer, Sensoren, Cameras), 30 HUE-Lampen, 5 MAX! WTs, 16 MAX! HTs, 12 MAX! FKs, 1 Bresser 5in1, 1 OilFox, 8 ALEXA Echos und Dots, FHEM, 5 Tasmota-Devices, SonOff -Bridge, PowerFox, Buderus KM200

stefanru

Hmmm, seltsam.

Nein mein FHEM läuft eigentlich gut.
Und ich hatte ja auch ein Apptime gesendet.
Das einzige was lang lief war tuya.

Aber ich habe jetzt nochmal genau geschaut und scheinbar war mein Bindings nicht aktualisiert.
Habe nochmal update gemacht und diesmal kam:

2023.01.31 21:51:38 1: Downloading https://raw.githubusercontent.com/dominikkarall/fhempy/master/controls_pythonbinding.txt
2023.01.31 21:51:38 1: pythonbinding
2023.01.31 21:51:39 1: UPD FHEM/10_BindingsIo.pm
2023.01.31 21:51:39 1: UPD FHEM/10_fhempy.pm
2023.01.31 21:51:39 1: saving fhem.cfg
2023.01.31 21:51:39 1: saving ./log/fhem.save

2023.01.31 21:51:40 1: BindingsIo (local_pybinding): ==> FHEMPY UPDATE STARTED...CHECK FHEMPY STATE FOR STATUS <==


Nach dem Update und reapear von local_pybinding habe ich FHEM durchgestartet.

Danach sind die Versionen wie folgt:
Server:

Internals:
   DEF        0
   FD         35
   FUUID      61a76073-f33f-0c45-3670-bd692e31096ebf98
   LAST_START 2023-01-31 21:57:03
   NAME       fhempyserver_15733
   NR         2013
   NTFY_ORDER 50-fhempyserver_15733
   PID        2902
   STARTS     1
   STATE      ???
   TYPE       fhempyServer
   currentlogfile ./log/fhempy-2023-01-31.log
   eventCount 2
   logfile    ./log/fhempy-%Y-%m-%d.log
   CoProcess:
     cmdFn      fhempyServer_getCmd
     name       fhempy
     state      running FHEM/bindings/python/bin/fhempy
   READINGS:
     2023-01-31 21:57:03   fhempy          running FHEM/bindings/python/bin/fhempy
     2023-01-31 21:57:03   python          v3.9.2
Attributes:
   devStateIcon {      my $status_img = "10px-kreis-gruen";;      my $status_txt = "running";;      if (substr(ReadingsVal($name, "fhempy", "running"),0,7) ne "running") {        $status_img = "10px-kreis-rot";;        $status_txt = "stopped";;      }      "<div><a>".FW_makeImage($status_img, $status_txt)."</a><a  href=\"/fhem?cmd.dummy=set $name restart&XHR=1\" title=\"Restart\">".FW_makeImage("audio_repeat")."</a></div>"      }
   group      fhempy
   icon       python
   logfile    ./log/fhempy-%Y-%m-%d.log
   nrarchive  10
   room       fhempy


local_pybinding


Internals:
   BindingType fhempy
   DEF        fhempy
   DeviceName ws:localhost:15733
   FD         60
   FUUID      61ebfd4f-f33f-0c45-6307-c6f25f4c826817c3
   IP         127.0.0.1
   NAME       local_pybinding
   NR         2079
   NTFY_ORDER 50-local_pybinding
   PARTIAL   
   PORT       15733
   STATE      opened
   TYPE       BindingsIo
   WEBSOCKET  1
   binary     1
   connecttime 1675198633.01235
   devioLoglevel 0
   eventCount 3
   installing 0
   localBinding 1
   nextOpenDelay 10
   prev_error
   READINGS:
     2023-01-31 21:52:24   hostname        raspberrypi
     2023-01-31 21:52:24   os              posix
     2023-01-31 21:52:24   python          3.9.2
     2023-01-31 21:52:24   release         5.15.84-v7+
     2023-01-31 21:57:13   state           opened
     2023-01-31 21:52:24   system          Linux
     2023-01-31 21:52:24   version         0.1.585
     2023-01-31 21:57:13   version_available 0.1.585
     2023-01-31 21:57:13   version_release_notes <html><a href="https://github.com/fhempy/fhempy/releases" target="_blank">Release Notes</a></html>
   args:
     local_pybinding
     BindingsIo
     fhempy
Attributes:
   devStateIcon {      my $attr_ver = "1.1.0";;      my $status_img = "10px-kreis-gruen";;      my $status_txt = "connected";;      my $ver = ReadingsVal($name, "version", "-");;      my $ver_available = ReadingsVal($name, "version_available", $ver);;      my $update_icon = "";;      my $refresh_img = "refresh";;      my $refresh_txt = "Update fhempy";;      if ($ver_available ne $ver) {        $refresh_img = "refresh\@orange";;        $refresh_txt = "Version ".$ver_available." available for update";;      }      if (ReadingsVal($name, "state", "disconnected") eq "disconnected") {        $status_img = "10px-kreis-rot";;        $status_txt = "disconnected";;      }      $update_icon = "<a  href=\"/fhem?cmd.dummy=set $name update&XHR=1\" title=\"Start ".$ver_available." update\">".FW_makeImage($refresh_img, $refresh_txt)."</a>";;      my $restart_icon = "<a  href=\"/fhem?cmd.dummy=set $name restart&XHR=1\" title=\"Restart fhempy\">".FW_makeImage("control_reboot")."</a>";;      "<div><a>".FW_makeImage($status_img, $status_txt)."</a><a> ".$ver." </a>".$update_icon.$restart_icon."</div>"    }
   group      fhempy
   icon       file_json-ld2
   room       fhempy


tuya_system (lokal)

Internals:
   API_KEY    XXX
   API_SECRET XXX
   DEF        tuya setup XXX XXX
   DEVICEID   0
   FHEMPYTYPE tuya
   FUUID      633eabdb-f33f-0c45-6cf9-6f79a14a1c27a922
   IODev      local_pybinding
   NAME       tuya_system
   NR         2209
   PYTHONTYPE tuya
   REGION     eu
   STATE      ready
   TYPE       fhempy
   eventCount 1
   READINGS:
     2022-10-06 12:20:33   bf0572e0fb6ccbe356ykuh_icon https://images.tuyaeu.com/smart/icon/ay15422864509092y6k8/94efe8972e318399f1a1ee3887c704e8.png
     2022-10-06 12:20:33   bf0572e0fb6ccbe356ykuh_id bf0572e0fb6ccbe356ykuh
     2022-10-06 12:21:08   bf0572e0fb6ccbe356ykuh_ip 192.168.69.71
     2022-10-06 12:20:33   bf0572e0fb6ccbe356ykuh_localkey b4ca4d3e6b518fd1
     2022-10-06 12:20:33   bf0572e0fb6ccbe356ykuh_name Stefan Tablet
     2022-10-06 12:20:33   bf0572e0fb6ccbe356ykuh_productid vxw1edwctjckt0zd
     2022-10-06 12:21:08   bf0572e0fb6ccbe356ykuh_version 3.3
     2022-10-06 12:20:33   bf4f644bc7dd2fc71d9q52_icon https://images.tuyaeu.com/smart/icon/ay15148582002916nitB/c58a91c23c2e2b5309c7c5d776871390.png
     2022-10-06 12:20:33   bf4f644bc7dd2fc71d9q52_id bf4f644bc7dd2fc71d9q52
     2022-10-06 12:21:08   bf4f644bc7dd2fc71d9q52_ip 192.168.69.76
     2022-10-06 12:20:33   bf4f644bc7dd2fc71d9q52_localkey 8cf0099962d0ff3f
     2022-10-06 12:20:33   bf4f644bc7dd2fc71d9q52_name Fernseher Schlafzimmer
     2022-10-06 12:20:33   bf4f644bc7dd2fc71d9q52_productid apszn7k8yhgsin28
     2022-10-06 12:21:08   bf4f644bc7dd2fc71d9q52_version 3.3
     2022-10-06 12:20:33   bf68d9b41c16be3713vcc1_icon https://images.tuyaeu.com/smart/icon/ay15148582002916nitB/c58a91c23c2e2b5309c7c5d776871390.png
     2022-10-06 12:20:33   bf68d9b41c16be3713vcc1_id bf68d9b41c16be3713vcc1
     2022-10-06 12:21:08   bf68d9b41c16be3713vcc1_ip 192.168.69.78
     2022-10-06 12:20:33   bf68d9b41c16be3713vcc1_localkey 68c71bfc9491dabc
     2022-10-06 12:20:33   bf68d9b41c16be3713vcc1_name Sybille Tablet
     2022-10-06 12:20:33   bf68d9b41c16be3713vcc1_productid apszn7k8yhgsin28
     2022-10-06 12:21:09   bf68d9b41c16be3713vcc1_version 3.3
     2022-10-06 12:20:31   bf7bbcb9a4b03a2c97cqid_icon https://images.tuyaeu.com/smart/icon/ay15148582002916nitB/c58a91c23c2e2b5309c7c5d776871390.png
     2022-10-06 12:20:31   bf7bbcb9a4b03a2c97cqid_id bf7bbcb9a4b03a2c97cqid
     2022-10-06 12:21:07   bf7bbcb9a4b03a2c97cqid_ip 192.168.69.77
     2022-10-06 12:20:31   bf7bbcb9a4b03a2c97cqid_localkey ffb033dfca44e5e0
     2022-10-06 12:20:31   bf7bbcb9a4b03a2c97cqid_name Fernseher Wohnzimmer
     2022-10-06 12:20:31   bf7bbcb9a4b03a2c97cqid_productid apszn7k8yhgsin28
     2022-10-06 12:21:08   bf7bbcb9a4b03a2c97cqid_version 3.3
     2022-10-06 12:20:30   bf881b7977c814af88jmrc_icon https://images.tuyaeu.com/smart/icon/ay15148582002916nitB/c58a91c23c2e2b5309c7c5d776871390.png
     2022-10-06 12:20:30   bf881b7977c814af88jmrc_id bf881b7977c814af88jmrc
     2022-10-06 12:21:07   bf881b7977c814af88jmrc_ip 192.168.69.79
     2022-10-06 12:20:30   bf881b7977c814af88jmrc_localkey d8256204db6848a7
     2022-10-06 12:20:30   bf881b7977c814af88jmrc_name Computer
     2022-10-06 12:20:30   bf881b7977c814af88jmrc_productid apszn7k8yhgsin28
     2022-10-06 12:21:07   bf881b7977c814af88jmrc_version 3.3
     2022-10-06 12:20:32   bfb7810a3e397c5fa4u7ud_icon https://images.tuyaeu.com/smart/icon/ay15422864509092y6k8/94efe8972e318399f1a1ee3887c704e8.png
     2022-10-06 12:20:32   bfb7810a3e397c5fa4u7ud_id bfb7810a3e397c5fa4u7ud
     2022-10-06 12:21:08   bfb7810a3e397c5fa4u7ud_ip 192.168.69.70
     2022-10-06 12:20:32   bfb7810a3e397c5fa4u7ud_localkey 9f28f44af0417c83
     2022-10-06 12:20:32   bfb7810a3e397c5fa4u7ud_name Fernseher
     2022-10-06 12:20:32   bfb7810a3e397c5fa4u7ud_productid vxw1edwctjckt0zd
     2022-10-06 12:21:08   bfb7810a3e397c5fa4u7ud_version 3.3
     2023-01-27 14:47:53   bffa550a829a269630vhcn_icon https://images.tuyaeu.com/smart/icon/ay1525749833414yotNt/b3a94a9431b68373894805b4a19092e4.png
     2023-01-27 14:47:53   bffa550a829a269630vhcn_id bffa550a829a269630vhcn
     2023-01-27 15:37:37   bffa550a829a269630vhcn_ip 192.168.69.43
     2023-01-27 14:47:53   bffa550a829a269630vhcn_localkey 55db39dd00af9487
     2023-01-27 14:47:53   bffa550a829a269630vhcn_name T & H Sensor
     2023-01-27 14:47:53   bffa550a829a269630vhcn_productid xlk3mtpjo1zkmdvh
     2023-01-27 14:48:42   bffa550a829a269630vhcn_version 3.3
     2023-01-31 21:57:24   state           ready
   args:
     tuya_system
     fhempy
     tuya
     setup
     XXX
     XXX
     XXX
   argsh:
Attributes:
   group      tuya
   room       fhempy


Leider immer noch das selbe in den Logs.
Kann die gerne nochmal senden.

Hier nochmal "Apptime" für das Verhalten meines FHEM Systems:

active-timers: 112; max-active timers: 121; max-timer-load: 11  min-tmrHandlingTm: 0.2ms; max-tmrHandlingTm: 1193.6ms; totAvgDly: 66.3ms

name                                     function                               max    count      total  average   maxDly   avgDly TS Max call     param Max call
tmr-at_Exec                              HASH(0x79ffb18)                       1193        2    1203.60   601.80    26.46    14.12 31.01. 22:07:01 HASH(haus.strom.at)
local_pybinding                          CODE(0x7e79a78)                        983      700   29065.88    41.52     0.00     0.00 31.01. 22:06:23 HASH(local_pybinding)
WEB_192.168.69.94_41874                  FW_Notify                              593     1856   23939.53    12.90     0.00     0.00 31.01. 22:06:23 HASH(WEB_192.168.69.94_41874); HASH(tuya_local_bf4f644bc7dd2fc71d9q52)
tuya_local_bf4f644bc7dd2fc71d9q52        fhempy_Set                             587       22    1265.23    57.51     0.00     0.00 31.01. 22:06:23 HASH(tuya_local_bf4f644bc7dd2fc71d9q52); ARRAY(0x88d2008); HASH(0x8a28aa0)
tuya_local_bf68d9b41c16be3713vcc1        fhempy_Set                             508       50    4422.50    88.45     0.00     0.00 31.01. 22:08:13 HASH(tuya_local_bf68d9b41c16be3713vcc1); ARRAY(0x8a7b250); HASH(0x88c4f68)
WEB_192.168.69.69_42110                  FW_Notify                              484     1856   24898.78    13.42     0.00     0.00 31.01. 22:08:18 HASH(WEB_192.168.69.69_42110); HASH(tuya_local_bf68d9b41c16be3713vcc1)
Stefan_Tablet_bf0572e0fb6ccbe356ykuh     fhempy_Set                             405       68    4860.17    71.47     0.00     0.00 31.01. 22:06:23 HASH(Stefan_Tablet_bf0572e0fb6ccbe356ykuh); ARRAY(0x89ba680); HASH(0x8aa2be8)
tuya_local_bfb7810a3e397c5fa4u7ud        fhempy_Set                             372       54    4566.54    84.57     0.00     0.00 31.01. 22:06:57 HASH(tuya_local_bfb7810a3e397c5fa4u7ud); ARRAY(0x8cbd438); HASH(0x8036f88)
tuya_local_bf881b7977c814af88jmrc        fhempy_Set                             351       52    3643.89    70.07     0.00     0.00 31.01. 22:07:53 HASH(tuya_local_bf881b7977c814af88jmrc); ARRAY(0x87bfae8); HASH(0x8a69728)
tmr-WS3600_Read                          HASH(0x5315ff8)                        341        1     341.45   341.45     1.26     1.26 31.01. 22:08:00 HASH(meineWetterstation)
tuya_local_bf7bbcb9a4b03a2c97cqid        fhempy_Set                             308       50    4266.99    85.34     0.00     0.00 31.01. 22:07:17 HASH(tuya_local_bf7bbcb9a4b03a2c97cqid); ARRAY(0x8a1f758); HASH(0x8d1e200)
Fernseher_Schlafzimmer_bf4f644bc7dd2fc71d9q52 fhempy_Set                             268       44    2494.59    56.70     0.00     0.00 31.01. 22:07:53 HASH(Fernseher_Schlafzimmer_bf4f644bc7dd2fc71d9q52); ARRAY(0x8c11808); HASH(0x8ac2910)
fduino                                   FHEMduino_Read                         258       28     408.06    14.57     0.00     0.00 31.01. 22:07:34 HASH(fduino)
Fernseher_bfb7810a3e397c5fa4u7ud         fhempy_Set                             254      108    4093.26    37.90     0.00     0.00 31.01. 22:08:13 HASH(Fernseher_bfb7810a3e397c5fa4u7ud); ARRAY(0x8d6f1d0); HASH(0x8d21200)
Computer_Stefan_bf881b7977c814af88jmrc   fhempy_Set                             254      104    3878.54    37.29     0.00     0.00 31.01. 22:07:53 HASH(Computer_Stefan_bf881b7977c814af88jmrc); ARRAY(0x8cc15b8); HASH(0x8cb3578)
doTempAussen                             DOIF_Notify                            239        6     358.24    59.71     0.00     0.00 31.01. 22:07:34 HASH(doTempAussen); HASH(WetterStefanAussen)
Sybille_Tablet_bf68d9b41c16be3713vcc1    fhempy_Set                             204      100    3089.67    30.90     0.00     0.00 31.01. 22:07:53 HASH(Sybille_Tablet_bf68d9b41c16be3713vcc1); ARRAY(0x8a32130); HASH(0x8b71500)
Fernseher_Wohnzimmer_bf7bbcb9a4b03a2c97cqid fhempy_Set                             166      100    3748.15    37.48     0.00     0.00 31.01. 22:07:13 HASH(Fernseher_Wohnzimmer_bf7bbcb9a4b03a2c97cqid); ARRAY(0x8ca8dd8); HASH(0x8adf538)
walter.stromzaehler                      OBIS_Read                              138      180    8129.47    45.16     0.00     0.00 31.01. 22:07:31 HASH(walter.stromzaehler)
stefan.stromzaehler                      OBIS_Read                              113     1027    7700.43     7.50     0.00     0.00 31.01. 22:07:49 HASH(stefan.stromzaehler)
Home                                     HOMEMODE_Notify                         86       21     157.99     7.52     0.00     0.00 31.01. 22:08:00 HASH(Home); HASH(meineWetterstation)


Die Meldungen sind halt sehr nervig, ansonnsten funktioniert ja alles die Daten kommen und meine Plots vonn den Tuya Geräten sehen sauber aus.
Ich habe halt jeden Tag ein fhem.log von über 5MB weil soviele der Meldungen drin stehen und mit verbose 0 ging es auch nicht weg.

Ich danke dir vielmals fürs reinschauen.
Ist irgendetwas mit den Versionen noch nicht in ordnung?

Gruß,
Stefan

thburkhart

#768
nun hat das update geklappt :-)

und was die Doppelten betrifft: Teilerfolg

JL devices:  doppelt nur offlines
SP devices: 4 von 16 doppelt, alle online 4 doppelte wohl Firmware
Temp devices: alle innerhalb _tuya doppelt, aber mit korrekter und aktuellen Daten (hier hatte ich die devices in TUYA_xx umbenannt (per rename), um die reading wie in _local zu haben

damit kann ich leben ;-)

in der FHEMPY.log
hagelt es immer noch:

23-01-31 22:18:41,696 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:43,356 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:46,225 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:46,286 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:46,709 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:51,298 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:51,721 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:53,369 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:56,237 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:56,311 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:18:56,732 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:01,323 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:01,744 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:03,382 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:04,163 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:06,250 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:06,335 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:06,756 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:11,347 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:11,768 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:13,394 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:16,262 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:16,360 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:16,779 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:21,373 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:21,791 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:23,405 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:26,274 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:26,385 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:26,802 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:31,397 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:31,814 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:33,418 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:36,287 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:36,409 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:36,826 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:39,770 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:41,422 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:41,838 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:43,430 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:46,299 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:46,434 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:46,850 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:51,447 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:51,862 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:53,442 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:56,312 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:56,458 - WARNING  - asyncio: socket.send() raised exception.
2023-01-31 22:19:56,873 - WARNING  - asyncio: socket.send() raised exception.


das nagelt aber wohl nur die log zu, an der Performace spüre ich nichts

was meinst du dazu?

update: bei den Temps steht jetzt in den readings tuya_local !! der richtige Wert  :-)

1 RASPI4B, 1 RASPI3B, 2 CUL, 2 Jeelink, 60 Tuya-Devices (Schalter, Dimmer, Sensoren, Cameras), 30 HUE-Lampen, 5 MAX! WTs, 16 MAX! HTs, 12 MAX! FKs, 1 Bresser 5in1, 1 OilFox, 8 ALEXA Echos und Dots, FHEM, 5 Tasmota-Devices, SonOff -Bridge, PowerFox, Buderus KM200

stefanru

Hi,

von mir auch noch eine Rückmeldung.
Habe auch keinen Performance Impakt mehr.
Die Auslastung des Raspberrys über nach sah auch gut aus.

Nach dem es beim Start gestern noch einige Fehler im Log gab, ist das Log von heute komplett leer.
Keine Fehler sowohl im fhempy.log noch im fhem.log.

Verstehe zwar nicht warum der gestern so gehustet hat beim starten aber jetzt hat es sich gefangen.

Gruß und Danke,
Stefan


thburkhart

meine Vermutung: am Anfang braucht es ewig


bei mir tauchen immer noch doppelte auf, die bei jedem Neustart beharrlich wieder findet

1 RASPI4B, 1 RASPI3B, 2 CUL, 2 Jeelink, 60 Tuya-Devices (Schalter, Dimmer, Sensoren, Cameras), 30 HUE-Lampen, 5 MAX! WTs, 16 MAX! HTs, 12 MAX! FKs, 1 Bresser 5in1, 1 OilFox, 8 ALEXA Echos und Dots, FHEM, 5 Tasmota-Devices, SonOff -Bridge, PowerFox, Buderus KM200

stefanru

Hmm seltsam,
nach über 12 Stunden absolute Ruhe im Log hat er um 12:08:20 und dann nochmal um 12:18:15 und 12:18:16 das log voll gemüllt.
Danach wieder alles ok.

Er schreibt dann in einer Sekunde seitenweise raus.
Ich dachte schon, dass da vielleicht meine Zwangstrennung war, das war aber nicht der Fall.
Könnte es trotzdem sein dass wenn mal kurz keine Verbindung aufgebaut werden kann das er dann irgendwie in kürzester Zeit viele Fehler raus protokolliert.

Der Spuk dauert nur 1 bzw 2 Sekunden aber er schreibt Tonnenweise meldungen.

Könnte er bei einem Problem mit einem device nicht 5 sek warten und neu probieren?

Danke und Gruß,
Stefan

thburkhart

bei mir gab es im log um 13:00 wenige Meldungen im FHEM-Log u.a. zu meinem JL03 .
Dieser Stecker war zu der Zeit stromlos.

Im Fhempy.log steht ca. 34000 mal

2023-02-01 16:20:18,727 - WARNING  - asyncio: socket.send() raised exception.
1 RASPI4B, 1 RASPI3B, 2 CUL, 2 Jeelink, 60 Tuya-Devices (Schalter, Dimmer, Sensoren, Cameras), 30 HUE-Lampen, 5 MAX! WTs, 16 MAX! HTs, 12 MAX! FKs, 1 Bresser 5in1, 1 OilFox, 8 ALEXA Echos und Dots, FHEM, 5 Tasmota-Devices, SonOff -Bridge, PowerFox, Buderus KM200

thburkhart

darf ich nochmals anregen, den devices ein Attribut "active" zu verpassen
0 = inaktiv
1 = aktiv

Solange der Attribut-Wert 0 ist, würde das Device beim fhempy restart zwar als "bekannt" erkannt werden; ein zig-tausendfaches Nachfragen, ob es tatsächlich da ist und Werte liefert, könnte dann entfallen.

Ein weiteres attr könnte "polling" sein;der Schwellwert, wielange/wieoft nach Werten des devices abgefragt werden soll.
1 RASPI4B, 1 RASPI3B, 2 CUL, 2 Jeelink, 60 Tuya-Devices (Schalter, Dimmer, Sensoren, Cameras), 30 HUE-Lampen, 5 MAX! WTs, 16 MAX! HTs, 12 MAX! FKs, 1 Bresser 5in1, 1 OilFox, 8 ALEXA Echos und Dots, FHEM, 5 Tasmota-Devices, SonOff -Bridge, PowerFox, Buderus KM200

dominik

Zitat von: thburkhart am 01 Februar 2023, 16:31:50
bei mir gab es im log um 13:00 wenige Meldungen im FHEM-Log u.a. zu meinem JL03 .
Dieser Stecker war zu der Zeit stromlos.

Im Fhempy.log steht ca. 34000 mal

2023-02-01 16:20:18,727 - WARNING  - asyncio: socket.send() raised exception.
Kannst du das reproduzieren? Also Stecker stromlos machen und dann prüfen ob der Fehler kommt? Bitte zur gleichen Zeit schauen ob FHEM evtl. blockiert.

Ich habe das nochmals recherchiert und der Fehler (socket.send()...) dürfte kommen, wenn FHEM blockiert.
fhempy -  https://github.com/fhempy/fhempy: GoogleCast, Tuya, UPnP, Ring, EQ3BT, Nespresso, Xiaomi, Spotify, Object Detection, ...
Kaffeespende: https://paypal.me/todominik

dominik

Zitat von: thburkhart am 01 Februar 2023, 17:11:39
darf ich nochmals anregen, den devices ein Attribut "active" zu verpassen
0 = inaktiv
1 = aktiv

Solange der Attribut-Wert 0 ist, würde das Device beim fhempy restart zwar als "bekannt" erkannt werden; ein zig-tausendfaches Nachfragen, ob es tatsächlich da ist und Werte liefert, könnte dann entfallen.

Ein weiteres attr könnte "polling" sein;der Schwellwert, wielange/wieoft nach Werten des devices abgefragt werden soll.
Es wird nix nachgefragt ob ein Wert da ist und es gibt auch kein pollen. Es wird einmalig eine Verbindung zur Tuya Cloud aufgebaut und wenn von dort ein Event kommt, wird dieser verarbeitet. Alles andere würde ja sonst dazu führen, dass an Drücken am Schalter nicht sofort in FHEM ankommt.
fhempy -  https://github.com/fhempy/fhempy: GoogleCast, Tuya, UPnP, Ring, EQ3BT, Nespresso, Xiaomi, Spotify, Object Detection, ...
Kaffeespende: https://paypal.me/todominik

dominik

Zitat von: stefanru am 01 Februar 2023, 15:01:28
Hmm seltsam,
nach über 12 Stunden absolute Ruhe im Log hat er um 12:08:20 und dann nochmal um 12:18:15 und 12:18:16 das log voll gemüllt.
Danach wieder alles ok.

Er schreibt dann in einer Sekunde seitenweise raus.
Ich dachte schon, dass da vielleicht meine Zwangstrennung war, das war aber nicht der Fall.
Könnte es trotzdem sein dass wenn mal kurz keine Verbindung aufgebaut werden kann das er dann irgendwie in kürzester Zeit viele Fehler raus protokolliert.

Der Spuk dauert nur 1 bzw 2 Sekunden aber er schreibt Tonnenweise meldungen.

Könnte er bei einem Problem mit einem device nicht 5 sek warten und neu probieren?

Danke und Gruß,
Stefan
Mit was für Meldungen ist es voll? Nachdem du nur ein paar wenige Devices hast, kannst du bitte nur ein Device einrichten und mit diesen testen?
fhempy -  https://github.com/fhempy/fhempy: GoogleCast, Tuya, UPnP, Ring, EQ3BT, Nespresso, Xiaomi, Spotify, Object Detection, ...
Kaffeespende: https://paypal.me/todominik

thburkhart

Zitat von: dominik am 01 Februar 2023, 20:50:43
Es wird nix nachgefragt ob ein Wert da ist und es gibt auch kein pollen. Es wird einmalig eine Verbindung zur Tuya Cloud aufgebaut und wenn von dort ein Event kommt, wird dieser verarbeitet. Alles andere würde ja sonst dazu führen, dass an Drücken am Schalter nicht sofort in FHEM ankommt.

laienhaft ausgedückt:/verstanden: dann wird ständig in die cloud gehorcht und ggf. werden neue devices in FHEM angelegt und dies  ggf. doppelt zu del "locals". Dies könnte unterbleibeb bzw. vermmieden werden bei devices, die man sich mit attr "inactive" gemerkt hat
1 RASPI4B, 1 RASPI3B, 2 CUL, 2 Jeelink, 60 Tuya-Devices (Schalter, Dimmer, Sensoren, Cameras), 30 HUE-Lampen, 5 MAX! WTs, 16 MAX! HTs, 12 MAX! FKs, 1 Bresser 5in1, 1 OilFox, 8 ALEXA Echos und Dots, FHEM, 5 Tasmota-Devices, SonOff -Bridge, PowerFox, Buderus KM200

thburkhart

#778
Zitat von: dominik am 01 Februar 2023, 20:48:40
Kannst du das reproduzieren? Also Stecker stromlos machen und dann prüfen ob der Fehler kommt? Bitte zur gleichen Zeit schauen ob FHEM evtl. blockiert.

Ich habe das nochmals recherchiert und der Fehler (socket.send()...) dürfte kommen, wenn FHEM blockiert.
wird gemacht

Ergebnis:
Stromlos machen: kein Fehler im FHEM-log

Shutdown restart: Temp ZigBees werden nochmals neu anlegt.
1 RASPI4B, 1 RASPI3B, 2 CUL, 2 Jeelink, 60 Tuya-Devices (Schalter, Dimmer, Sensoren, Cameras), 30 HUE-Lampen, 5 MAX! WTs, 16 MAX! HTs, 12 MAX! FKs, 1 Bresser 5in1, 1 OilFox, 8 ALEXA Echos und Dots, FHEM, 5 Tasmota-Devices, SonOff -Bridge, PowerFox, Buderus KM200

dominik

Das doppelt Anlegen liegt nicht an der Cloud oder Polling oder ähnlichen. Das liegt mit 99%iger Wahrscheinlichkeit an der fehlenden Rückmeldung von FHEM zur Abfrage ob ein Device mit der DEVICEID bereits existiert.

Bitte daher nach dem shutdown restart die beiden Logs posten.
fhempy -  https://github.com/fhempy/fhempy: GoogleCast, Tuya, UPnP, Ring, EQ3BT, Nespresso, Xiaomi, Spotify, Object Detection, ...
Kaffeespende: https://paypal.me/todominik