Android FHEM per Sprache über Tasker steuern

Begonnen von gelberlemmy, 23 Juni 2013, 10:20:10

Vorheriges Thema - Nächstes Thema

outhouse

Zitat von: n4rrOx am 30 Juni 2016, 10:28:00
Wichtig ist, dass AutoVoice richtig eingerichtet ist (was CoolTux schon angedeutet hat), d. h. auch, dass AutoVoice unter Eingabehilfen -> Dienste aktiviert sein muss, sonst darf der Dienst nicht mitlauschen und kann demnach auch keine Befehle entgegen nehmen.
Wenn der Dienst aktiv ist, werden bei Spracherkennung immer Toast-Nachrichten eingeblendet...

Die Dienste sind wie folgt:
Automagic Premium - an
Tasker - an
AutoVoice Google Now Intergration - an

Trotzdem danke für die Info
Raspberry 4 B mit Raspberry Pi OS und FHEM-Image 6.3 von fhem.de
Cul CC 1101 V4 als CUL_HM
Cul V3.4 + V3.4 als RFR
enocean-pi

outhouse

Zitat von: CoolTux am 28 Juni 2016, 17:07:47
Hast Du AutoVoice erstmal eingerichtet das er auf ok Google hört? Wie hast Du den Trigger in Automagic eingerichtet?
Zeug mal Screens.

Also beim Autovoice ist die "Google Now Integration" an
Der Trigger in Automagic ist der von dir. v2.2.4 VoiceControl :-)
Raspberry 4 B mit Raspberry Pi OS und FHEM-Image 6.3 von fhem.de
Cul CC 1101 V4 als CUL_HM
Cul V3.4 + V3.4 als RFR
enocean-pi

CoolTux

Ok ich verstehe. So kann das natürlich nicht klappen.
Der AMAD Trigger ist nur für AMAD und mycht ja was ganz anderes. Hier geht es darum über FHEM eine Spracheingabe an zu stoßen.

Du musst unter Trigger Plugin wählen und dann den entsprechenden AutoVoice Eintrag. Also "AutoVoice Recognized" und dann Konfigurieren.



Grüße
Leon
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

outhouse

Zitat von: CoolTux am 30 Juni 2016, 12:24:48
Ok ich verstehe. So kann das natürlich nicht klappen.

:o Ich sagte  ja, ich bin eine Niete (mehr oder weniger). Aber ich werde es mal versuchen und dann berichten, ob aus der Niete ein "Nietelchen" geworden ist :-)

Danke für deine Info
Raspberry 4 B mit Raspberry Pi OS und FHEM-Image 6.3 von fhem.de
Cul CC 1101 V4 als CUL_HM
Cul V3.4 + V3.4 als RFR
enocean-pi

CoolTux

Ich kann Dir mal so ein Flow hier heute Abend einstellen. Dann haste schon mal ne Basis.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

CoolTux

Hier mal ein Flow. Wenn Du Fragen hast einfach fragen. Schau genau beim Trigger hin da kann man nämlich das Plugin für AutoVoice Konfigurieren.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

outhouse

Hallo CoolTux

Also. Erst mal ganz herzlichen Dank. Nicht nur für den Beispiel-Flow, sondern das ganze AMAD :-)

Den Flow habe ich übernommen und angepasst. Seit heute Vormittag funktioniert das Horchen auf "OK Google" und den folgenden Befehl :-)

Trotzdem sucht "OK Google" erst auf Google (antwortet teilweise, dass er Bilder gefunden hat) und führt den Befehle erst nachher aus (inkl. der Sprach-Bestätigung).

Muss wohl noch irgendwo irgendwas aus- bzw. um- oder einschalten.

Raspberry 4 B mit Raspberry Pi OS und FHEM-Image 6.3 von fhem.de
Cul CC 1101 V4 als CUL_HM
Cul V3.4 + V3.4 als RFR
enocean-pi

CoolTux

Du hast alles richtig gemacht. Das mit dem Antworten und gefundenen Bildern kommt vor. Du kannst versuchen unter den AutoVoice Einstellungen das ein oder andere aus zu probieren. Eventuell hilft da was.

Mit der kommenden AMAD Version wird es eine einheitliche Schnittstelle, so eine Art API, geben. Dann müsste der Flow noch mal umgebaut werden. Aber schön das es nun funktioniert.


Grüße
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

outhouse

Raspberry 4 B mit Raspberry Pi OS und FHEM-Image 6.3 von fhem.de
Cul CC 1101 V4 als CUL_HM
Cul V3.4 + V3.4 als RFR
enocean-pi

chunter1

Bei Google now kann man ja nur eine Person/Stimme trainieren auf die er hört.
Gibts eine Möglichkeit das ganze Sprecher-unabhängig zu machen?

CoolTux

Das ist nicht ganz richtig. Die Stimme die trainiert wird ist nur bei gesperrten Display oder bei offener App nötig. Wenn der Startbildschirm offen ist kann jeder Ok Google sagen.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

chunter1

Zitat von: CoolTux am 18 August 2016, 08:51:09
Das ist nicht ganz richtig. Die Stimme die trainiert wird ist nur bei gesperrten Display oder bei offener App nötig. Wenn der Startbildschirm offen ist kann jeder Ok Google sagen.

Das heißt, man muss nur den Standby-Modus verhindern?
Kann man Android so einstellen, dass es nur das Backlight nach einer gewissen Zeit ausschaltet aber nicht in den Lock/Standby Zustand wechselt?
(hab noch kein Android Gerät)

CoolTux

Das Anlassen geht nur wenn dauerstrom aktiv ist und in den Entwicklereinstellungen Screen immer on gesetzt.
Abdunkeln geht nicht von alleine. Du kannst über AMAD den Screen heller und ganz dunkel stellen. Brauchst aber dafür natürlich irgend einen Auslöser. Bewegungsmelder oder ne App mit Plugin so wie IP Webcam.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

n4rrOx

Habe bei mir auch einige Sprachbefehle (schalten, Temp. Abfrage, etc.) mit Tasker umgesetzt .... das ganze funktioniert ganz gut.
Das was mich ein wenig stört, ist die "umständliche Programmierung" in Tasker.
Bei 4-5 Geräten ist das noch relativ schnell gemacht und man muss nicht sehr viel hin und her scrollen .... möchte man aber alles Mögliche steuern (Temps. abfragen bzw. setzen / Internetradio / Geräte schalten bzw. abfragen / Rolladen / etc....) dann wird es sehr schnell sehr unübersichtlich und dauert vergleichweise lange.

Deswegen wollte ich mal eine generelle Frage in den "Raum werfen":
Würde es Sinn machen den Sprachbefehl nur entgegegen zu nehmen und in Text zu konvertieren, die Wörter an FHEM zu schicken und hier die Auswertung zu betreiben?
Hätte den Vorteil, dass man sich viel Zeit sparen würde und das Ganze vor allem deutlich "generischer" von der Programmierung aufbauen könnte.
Evlt. könnte man daraus sogar ein FHEM-Modul erstellen.
Leider fehlen mir persöhnlich nur die Kenntnisse / Fähigkeiten ein Modul zu erstellen :/
Was hält Ihr von dieser Idee?

Gruß
Mathias

the ratman

#89
ZitatKann man Android so einstellen, dass es nur das Backlight nach einer gewissen Zeit ausschaltet aber nicht in den Lock/Standby Zustand wechselt?
ich hab das mit einem "daydream" gelöst. gernauer, dem "lucid daydream" ( https://play.google.com/store/apps/details?id=de.j4velin.ultimateDayDream ) der hat ein modul eingebaut, dass die hintergrundbeleuchtung abstellen kann. funzt aber bei weitem nicht mit allen androiden <-- vorher die kostenlose testversion probieren. eine automatische dimmung kann der aber allemal. hat ausserdem noch andere vorteile wie doppelt klopfen zum umschalten, rss-reader, ...
→do↑p!dnʇs↓shit←