Hallo zusammen,
ich würde gern Rivescript als Antwortscript in Fhem integrieren, damit ich variable Antworten auf meine Befehle via AMAD ttsMsg ausgeben kann. Rivescript als solches funktioniert, die Ausgabe via tts klappt super und die Eingabe auch - bislang allerdings leider nur über den TelegramBot, also in geschriebenem Wort.
Jetzt scheitere ich daran, dass ich via google now ja das gesprochene Wort verschriftlichen kann, ich aber keine Ahnung habe, wie ich diesen String wieder nach fhem als reading zurückbringen kann. Hier im Forum habe ich nun schon einiges über AMAD, automagic und autovoice gelesen, aber ich muss ganz ehrlich gestehen, dass ich es nicht begreife.
Wie bekomme ich einen von google now erkannten Text in ein Reading eines Fhem-Dummies?
Jede Hilfe wäre hochwillkommen - ich drehe mich vollkommen im Kreis ...
Hallo Unaussprechlicher ;)
Schau dir den Thread von CoolTux an, da ist eigentlich alles erklärt:
https://forum.fhem.de/index.php/topic,56553.0.html (https://forum.fhem.de/index.php/topic,56553.0.html)
1. AMAD2 in Fhem anlegen
2. Automagic auf dem mobilen Gerät installieren (Kauf: 2,90 Eur)
3. AutoVoice auf dem mobilen Gerät installieren (Testversion für eine Woche kostenlos, dannach 2,99 Eur)
4. Flow [AMAD 2.6] Flowset Voice Control.xml importieren.
5. Einen der existierenden Flows anpassen auf deine Fragestellung
ZitatWie bekomme ich einen von google now erkannten Text in ein Reading eines Fhem-Dummies?
Warum brauchst Du einen erkannten Text in einem Reading eines Devices? Wenn du mit Sprache steuern willst, dann siehe oben. Ich hab's auch geschafft, dank Hilfe von CoolTux.
Viele Grüße Gisbert
Zitat von: yrwyddfa am 14 Mai 2017, 16:05:59
Hallo zusammen,
ich würde gern Rivescript als Antwortscript in Fhem integrieren, damit ich variable Antworten auf meine Befehle via AMAD ttsMsg ausgeben kann. Rivescript als solches funktioniert, die Ausgabe via tts klappt super und die Eingabe auch - bislang allerdings leider nur über den TelegramBot, also in geschriebenem Wort.
Jetzt scheitere ich daran, dass ich via google now ja das gesprochene Wort verschriftlichen kann, ich aber keine Ahnung habe, wie ich diesen String wieder nach fhem als reading zurückbringen kann. Hier im Forum habe ich nun schon einiges über AMAD, automagic und autovoice gelesen, aber ich muss ganz ehrlich gestehen, dass ich es nicht begreife.
Wie bekomme ich einen von google now erkannten Text in ein Reading eines Fhem-Dummies?
Jede Hilfe wäre hochwillkommen - ich drehe mich vollkommen im Kreis ...
Hallo Ihr beiden,
@Gisbert
Was der Kollege mit den vielen Buchstaben im Nick möchte, ist das der erkannte Sprachtext eins zu eins als Reading hinterlegt wird.
@ viele Buchstaben
Im Moment geht es nur indem Du die hauseigene AMAD Spracheingabe verwendest. Die kann man natürlich auch via Automagic und AutoVoice aktivieren.
Der Flow heißt VoiceControl. Ist Teil des AMAD Standardpacketes. Den einfach ausführen und dann kannst Du sprechen.
Testen kannst du es mit dem set Befehl für das entsprechende Device. set TabletWohnzimmer inputVoice oder so ähnlich.
Dein Text landet dann in einem Reading in der Bridge. Schaue einfach mal.
Grüße
@VieleBuchstaben :
Es gibt mehrere Wege.
Ich bevorzuge den Weg über Automagic mit den Flows von CoolTux in Verbindung mit einem Shortcut als Trigger oder das Plugin über Autovoice als Trigger. Einfach zu handhaben und du kannst sofort auf dem jeweiligen AMAD Device auch antworten.
Ansonsten kannSt du auch Tasker installieren. Allerdings must du dir dort alles selber zusammenbasteln.
In den Flows vom Automagic bzw Amad ist das alles schon drin.
Gruß
Hi zusammen,
"Unausprechlicher" find ich super *lach*
Sorry dass ich mich jetzt erst melde, viel um die Ohren zur Zeit.
Danke für euren tollen Hinweise, ich werde mal daran tüfteln und schauen wie weit ich komme - selbstredend mit meinem Lösungsweg, wenn es läuft :)