Google Home ab 8 August in Deutschland

Begonnen von CoolTux, 18 Juli 2017, 12:24:16

Vorheriges Thema - Nächstes Thema

CoolTux

Eigentlich sollte Tasker da noch gar nicht weiter machen sondern die API macht ja erstmal noch die nachfrage.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

oggy

Hab es gerade auch gesehen. Die Variablen werden erst bei "Erfolg" / "Vollständigkeit" übergeben. Weißt du ob die Variablen auch an mehr als einem Gerät übergeben werden? (kann das gerade nicht testen) ... An meinem Handy schreibe ich die "Task" zusammen, aber sie sollen produktiv nachher auf meinem AndroidTV im heimischen Netz laufen.

CoolTux

Klar geht das. Kommt halt drauf an welches Gerät auf Deine Sprache angesprungen ist. Können auch 2 gleichzeitig gehen.
Sag mal Bescheid wenn du rausgefunden hast wie man Temperaturen abfragen kann so das die API antwortet
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

oggy

ja, mach ich ... ich werde bei mir aber erst die Steuerung optimieren :)

CoolTux

Mach das. Ganz in Ruhe. Ich muss auch noch mal in Ruhe anfangen. Jetzt habe ich ja schon mal einen besseren Ansatz durch das Smart Home Template
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

oggy

man muss die Statusabfrage in zwei Schritten machen. Den ersten Schrit benötigt man um in der AutoVoiceApp eine "Context"-Variable zu füllen (im Beispielvideo von Joao der Akkustand des Handys)  und den zweiten Schritt, um diese dann auszulesen.

vom Sprachfluß dann so:
User: "Status Küchensteckdosen"
Bot: "Status wird ermittelt. Um das Ergebnis zu erfahre sage Wie ist das Ergebnis"
- Tasker befüllt dann die Context-Variable
User: "Wie ist das Ergebnis"
Bot: "Die Steckdosen in der Küche sind ausgeschaltet"


ich hab es wie im Video nachgebaut und es funktioniert auch.

CoolTux

Interessant. Aber meinst nicht das geht auch besser? So in einem Rutsch für den User ohne nachfragen?
Poste Mal bitte den Link ich schaue mir das am WE mal an. Vielen vielen Dank auf alle Fälle für deine Mühe.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net


CoolTux

Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

oggy

uff, den Status schon bei der ersten Abfrage zu erfahren wird nur begrenzt funktionieren. Für jedes Intent ist die Response fest auf eine "Variable" im AutoVoice gemappt. Das heißt für die wichtigsten Abfragen kann man Intents basteln und für die weniger genutzten Abfrage die 2-Schritte-Version.


im Moment steige ich noch nicht dahinter, warum sich die "Simulation" auf der API.ai-Seite teilweise anders verhält als Alexa. Ich werde mal weiter rumbasteln.

CoolTux

Ich hoffe ja ich komme am Wochenende dazu meines umzubauen. Hab ja ein paar Anfängerfehler drin die will ich erstmal grade biegen.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

oggy

iiiih ... kannst du mal prüfen, ob das bei dir auch nicht hinhaut. Wenn ich Befehle über Alexa absetze, hat die Schnittstelle Probleme mit Umlauten.

Beispiel:
"Lautstärke zehn"
--> AutoVoice direkt -> alles iO
--> Alexa --> Befehl wird ignoriert

CoolTux

Habe ja kein Alexa. Mache das alles doch mit Androidgeräten  ;D
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

Amenophis86

Zitat von: oggy am 25 August 2017, 12:58:27
Wenn ich Befehle über Alexa absetze

Welchen Vorteil hat Api.ai gegenüber des hier oft genutzten alexa-coustom Skill? Oder bist du aktuell einfach nur am Testen?
Aktuell dabei unser neues Haus mit KNX am einrichten. Im nächsten Schritt dann KNX mit FHEM verbinden. Allein zwei Dinge sind dabei selten: Zeit und Geld...

Thyraz

Das wollt ich als interessierter Mitleser auch schon fragen. :)
Fhem und MariaDB auf NUC6i5SYH in Proxmox Container (Ubuntu)
Zwave, Conbee II, Hue, Harmony, Solo4k, LaMetric, Echo, Sonos, Roborock S5, Nuki, Prusa Mini, Doorbird, ...