Home Companion (Android Wear)

Begonnen von schdef, 26 April 2015, 08:36:02

Vorheriges Thema - Nächstes Thema

ChrisW

richtig geiles Projekt. Sobald meine Uhr aus der Reperatur zurück ist gleich mal testen :)
Raspberry PI3 mit allem möglichen.

blackboro

Bin gerade erst drauf gestoßen und finde die App absolut genial, danach hatte ich schon gesucht!
Ein Traum wäre ja noch die Bedienung per Sprachen (hatte da mal mit Tasker und Plugins herumgefummelt, aber richtig funktioniert hatte das nicht ...

stefanheintz

Zitat von: blackboro am 24 Oktober 2015, 21:42:30
Bin gerade erst drauf gestoßen und finde die App absolut genial, danach hatte ich schon gesucht!
Ein Traum wäre ja noch die Bedienung per Sprachen (hatte da mal mit Tasker und Plugins herumgefummelt, aber richtig funktioniert hatte das nicht ...
Die Sprachbedienung hatte ich auch schon angedacht und ca. vor nem Jahr auch mal ausprobiert mit einem anderen Projekt. Resultat war, dass es total nervig war. Durch die geringe Erkennungsrate musste man einen Befehl 2-3 mal wiederholen und da war dann schnell der Frustfaktor hoch, da in dieser Zeit habe ich locker auch schon die Befehle per Touch auf SmartPhone oder SmartWatch ausgeführt.

Die Spracherkennung von Google hat sich seit dem Jahr um einiges verbessert, drum könnte man ja eine neuen Versuch starten.

Ein paar Infos wären da von Euch sehr wertvoll und helfen die Machbarkeit zu überprüfen. Wie ist da Eure Erfahrung und Erwartung:
1. Wie verwendet ihr Spracherkennung im Alltag (z.B. Google Now andere Apps)?
2. Wie gut ist diese für Euch?
3. Verwendet ihr eventuell schon eine Sprachsteuerung für das ConnectedHome? Welches und wie funktioniert das?
4. Wie stellt ihr Euch die Sprachsteuerung für den HomeCompanion vor?
5. Welche Eigenschaften sollte die Sprachsteuerung haben, damit ihr diese verwendet?


Kuzl

Ich denke das wichtigste ist, dass sie sich schnell starten lässt. Hier wär das schnellste, wenn sie sich in die Google Now-Sprachkommandos der Uhr integrieren lassen würde. Soviel ich weiß, hat Google da vor kurzem eine API bereitgestellt. Die Erkennung der Sprache ist zuminderst bei mir extrem gut, ich muss eigentlich selten ein 2. mal reden.
Ich habe vor einiger Zeit mal über Tasker  und Autovoice rumprobiert aber dann irgendwie wieder verworfen, warum auch immer.

siggi85

Zitat von: Kuzl am 25 Oktober 2015, 15:15:06
Ich denke das wichtigste ist, dass sie sich schnell starten lässt. Hier wär das schnellste, wenn sie sich in die Google Now-Sprachkommandos der Uhr integrieren lassen würde. Soviel ich weiß, hat Google da vor kurzem eine API bereitgestellt. Die Erkennung der Sprache ist zuminderst bei mir extrem gut, ich muss eigentlich selten ein 2. mal reden.
Ich habe vor einiger Zeit mal über Tasker  und Autovoice rumprobiert aber dann irgendwie wieder verworfen, warum auch immer.

Bist du sicher mit der API Bereitstellung?
Ich verwende AutoVoice und Tasker (auf Handy und Tablet), jedoch warte ich immer noch auf eine Implementierung in die "OK google" Erkennung per Smartwatch. Dies war bisher anscheinend nicht möglich...

Kuzl

Hallo siggi,

http://www.smartdroid.de/ok-google-sprachbefehl-auch-fuer-andere-apps-nutzbar/
Wenn ich mich recht erinnere, sollte das mitlerweile auch in Deutschland funktionieren. Ob das ganze dann auch mit der Uhr geht, kann ich leider nicht sagen.

blackboro

In letzter Zeit hat sich die Spracherkennung stark verbessert. Ich verwende bei Autofahrten mittlerweile oft die Spracherkennung (z.B. "Sende Whatsapp an ... + Nachricht).
Zuhause benutze ich oft die Timerfunktion und mein Sohn (7) zeige Bilder von ...  ;D
In Verbindung mit FHEM wären für mich z.B. wünschenswerte Befehle:
- Schalte Leuchte Wohnzimmer an/aus
- Setze Temperatur Wohzimmer (auf) 23 (Grad)

siggi85

Zitat von: Kuzl am 26 Oktober 2015, 10:08:12
Hallo siggi,

http://www.smartdroid.de/ok-google-sprachbefehl-auch-fuer-andere-apps-nutzbar/
Wenn ich mich recht erinnere, sollte das mitlerweile auch in Deutschland funktionieren. Ob das ganze dann auch mit der Uhr geht, kann ich leider nicht sagen.

Danke für deine Antwort und deinen Link.
Ach so. Die Google Now Weiterleitung nutze ich bereits über Tasker (AutoVoice und AndFHEM Plugin). Leider funktioniert das nur über mein Tablet. Über die Smartwatch kann ich zwar die gleichen Sprachbefehle absetzen, ABER nicht üb die "OK google" hotword erkennung. Ich muss immer eine separate AutoWear Applikation auf der Ühr öffnen um ein eigenes Sprachmenü zu bekommen. Allerdings sobald ich beide Hände benötige, kann ich auch mein AutoWear Menü auf der Uhr nutzen für meine Befehle. Eine echte Verbesserung wäre das freihändige Absenden von Befehlen.

Maiks

Ich habe die App schon eine Weile, leider gibt es bei mir immer eine lange (mehrere Sekunden) Zeitverzögerung oder es geht gar nicht zwischen dem Befehl und der Aktion, kann man das irgendwo einstellen ?


stefanheintz

Zitat von: Maiks am 26 Oktober 2015, 15:14:23
Ich habe die App schon eine Weile, leider gibt es bei mir immer eine lange (mehrere Sekunden) Zeitverzögerung oder es geht gar nicht zwischen dem Befehl und der Aktion, kann man das irgendwo einstellen ?
Was genau möchtest du denn einstellen?

Maiks

Ich will einfach licht ein aus schalten und das dauert immer mehrere Sekunden bis der Befehl ausgeführt wird. Suche eine Einstelmöglichkeit für eine art BURST, damit der Befehl so schnell wie am web interface direkt umgesetzt wird.

stefanheintz

Zitat von: Maiks am 29 Oktober 2015, 14:00:21
Ich will einfach licht ein aus schalten und das dauert immer mehrere Sekunden bis der Befehl ausgeführt wird. Suche eine Einstelmöglichkeit für eine art BURST, damit der Befehl so schnell wie am web interface direkt umgesetzt wird.

Also einen BURST Modus gibt es nicht, ist aber ne Idee noch einmal auf die Performance zu schauen. Mein Ansatz ist momentan, dass nach einer Aktion die aktuellsten Daten auf der Uhr angezeigt werden. Dazu wird eine komplette Liste von FHEM geladen. Wie hier schon einige geschrieben haben und mit denen ich auch Kontakt hatte, ist das bei größeren FHEM Installationen ein längerer Vorgang. Im Schnitt aber ca. 2 Sekunden. Sprich aktueller Flaschenhals für die Geschwindigkeit ist meiner Meinung nach der FHEM-Server mit der Anzahl der Geräten.

Was man machen könnte, wäre die Aktualisierung nach einer Aktion (also z.B. schalten) nur auf dieses Gerät zu beziehen. Ich habe in der FHEM Doku geschaut und hier leider nur die Möglichkeit gefunden eine Abfrage für einen ganzen Raum zu machen -> Befehl:  http://192.168.178.33:8083/fhem?XHR=1&cmd=jsonlist2%20room=study
Kennt jemand ne Möglichkeit für das jsonlist2 Kommando den Filter auf ein Gerät zu setzen?

stefanheintz

Zitat von: siggi85 am 26 Oktober 2015, 09:34:38
Bist du sicher mit der API Bereitstellung?
Ich verwende AutoVoice und Tasker (auf Handy und Tablet), jedoch warte ich immer noch auf eine Implementierung in die "OK google" Erkennung per Smartwatch. Dies war bisher anscheinend nicht möglich...

Meine Recherche kommt leider zu dem Ergebnis, dass man sich nicht so leicht integrieren kann. Man kann festgelegte Kommandos verwenden, z.B. "OK google Erinnere an ..." usw. Man kann aber leider nicht in die STANDARD Spracherkennung etwas wie "OK google Schalte Wohnzimmerlampe ein" integrieren. Folgende Alternativen wären da denkbar (ist Theorie noch nicht ausprobiert):

1. "OK google Starte HomeCompanion" (das geht ja jetzt schon) -> HomeCompanion ist direkt mit Spracherkennung gestartet -> Man spricht den Befehl "Schalte Wohnzimmerlampe ein"
2. Es gibt ein HomeCompanion WatchFace welches auf der Uhr ausgewählt und angezeigt wird --> man löst ein Trigger aus, z.B. tippt auf einen Knopf auf dem WatchFace  --> Spracherkennung von HomeCompanion startet -> "Schalte Wohnzimmerlampe ein"

Entscheidend ist eine Verbindung zu der App (HomeCompanion) welche das Kommando umsetzen soll. Vielleicht bin ich da falsch und jemand weiß mehr darüber, dann bitte posten.
@siggi85: Wie genau ist das mit AutoVoice? Wie ist das da genau von der Handhabung?

siggi85

Zitat von: stefanheintz am 30 Oktober 2015, 08:06:33
Meine Recherche kommt leider zu dem Ergebnis, dass man sich nicht so leicht integrieren kann. Man kann festgelegte Kommandos verwenden, z.B. "OK google Erinnere an ..." usw. Man kann aber leider nicht in die STANDARD Spracherkennung etwas wie "OK google Schalte Wohnzimmerlampe ein" integrieren. Folgende Alternativen wären da denkbar (ist Theorie noch nicht ausprobiert):

1. "OK google Starte HomeCompanion" (das geht ja jetzt schon) -> HomeCompanion ist direkt mit Spracherkennung gestartet -> Man spricht den Befehl "Schalte Wohnzimmerlampe ein"
2. Es gibt ein HomeCompanion WatchFace welches auf der Uhr ausgewählt und angezeigt wird --> man löst ein Trigger aus, z.B. tippt auf einen Knopf auf dem WatchFace  --> Spracherkennung von HomeCompanion startet -> "Schalte Wohnzimmerlampe ein"

Entscheidend ist eine Verbindung zu der App (HomeCompanion) welche das Kommando umsetzen soll. Vielleicht bin ich da falsch und jemand weiß mehr darüber, dann bitte posten.
@siggi85: Wie genau ist das mit AutoVoice? Wie ist das da genau von der Handhabung?

Deine Vorschläge sind beide einfach umzusetzen mit der Kombination aus AutoWear (damit kann man zB Floating Icons auf die Uhr bringen, Watchapps mit benutzerdefinierten Aktionen erstellen,eigene Watchmenüs bauen, etc.) und AutoVoice (definieren der Sprachkommandos) realisieren.

Die beiden benannten Apps sind Tasker Integrationen. Tasker ist ein Tool welches sehr viel auf dem Handy automatisieren kann. Mit einigen Integrationen kann man eigentlich fast alles realisieren.

Hier mal ein Beispielablauf:
1. Öffnen einer benutzerdefinierten AutoWear App auf der Uhr (entweder per klick oder per "öffne Automation")
--> es öffnet sich ein AutoWear Sprachinterface
2. Sprechen des Befehls
--> AutoWear gibt das Sprachkommando an AutoVoice weiter
--> AutoVoice erkennt das geprochene und gibt es an das jeweilige Tasker Profil weiter (zB Licht anschalten)
--> Das Profil leitet per Tasker AndFHEM Integration den festgelegten Befehl an FHEM weiter (zB. set wz_lampe on)
--> Das Licht geht an.

Hoffe das war nicht zu viel offtopic. :)

Hans Franz

Hallo,

Zitat
Kennt jemand ne Möglichkeit für das jsonlist2 Kommando den Filter auf ein Gerät zu setzen?

einfach
http://192.168.178.33:8083/fhem?XHR=1&cmd=jsonlist2%20<devicename>

Gruß
Hans
Raspi
CUL, Nano-CUL
FHT8V, FHT80B, S300TH
WM1000WZ, ELRO
LW12, LD382,DS18B20