Alexa mit Fhem aktivieren doch möglich?

Begonnen von marty29ak, 28 Februar 2017, 14:28:45

Vorheriges Thema - Nächstes Thema

marty29ak

Habe diese Seite gefunden>>>>https://www.gehrig.info/alexa/Alexa.html          https://github.com/thorsten-gehrig/alexa-remote-control

Wenn ich das richtig verstehe kann man so die Alexa Hardware aktivieren und steuern.

Mir ist das alles etwas hoch, aber evtl. können das die richtigen Leute hier ja nutzen für Sachen wie Text2Speech usw.....
Gruß Martin

Prof. Dr. Peter Henning

Ich habe das ins Wiki https://wiki.fhem.de/wiki/Alexa_Tipps_und_Kniffe aufgenommen.

Konsequenzen sind mir noch nicht ganz klar.

LG

pah

igami

Ich hatte am Wochenende einen Bekannten eingeladen und wir haben im Prinzip genau das gleiche rausgefunden, nur mittels nodejs ist es noch nicht gelungen das csrf Token zu bekommen, da dies per JavaScript gesetzt wird. Die Frage ist nun wie lange ist die Kombination aus cookie und csrf Token gültig?
Pi3 mit fhem.cfg + DbLog/logProxy
Komm vorbei zum FHEM Treffen im Kreis Gütersloh! Das nächste Mal im April 2020.

MAINTAINER: archetype, LuftdatenInfo, monitoring, msgDialog, Nmap, powerMap
ToDo: AVScene, FluxLED

justme1968

da sind noch ein paar parameter mehr die potentiell ablaufen. z.b. session-token, session-time und vor allem der oauth access token der nur eine stunde gültig ist. letzteren sollte man aber ganz offiziell über das login with amazon api bekommen.

leider ist in der aufstellung auch kein kommando dabei um eine beliebige url abzuspielen.

bis man das wirklich sinnvoll verwenden kann ist also zumindest noch einiges an arbeit nötig.
hue, tradfri, alexa-fhem, homebridge-fhem, LightScene, readingsGroup, ...

https://github.com/sponsors/justme-1968

marty29ak

Der Verfasser von dem Script scheint das ganze schon erfolgreich in seine Automation eingebracht zu haben.

Hier hat er einen Tread eröffnet>>>>>>>https://www.amzecho.de/alexa-allgemein-f14/alexa-automatisiert-fernsteuern-t739.html

Er schreibt auch das er noch kein Problem mit dem ablaufen der Token hatte. Falls es das ist was ihr meint.
Gruß Martin

justme1968

#5
ich habe eben etwas damit gespielt. kurzes zwischenergebnis:
- meine alexa verwendet layla.amazon.de und nicht pitangui.amazon.com
- etwa 1/3 des requests ist unnötig und kann eingekürzt werden. dazu gehören userAgent, Referer, session-id und session-time und das x-amzn-dat-gui-client-v cookie
- das csrf token ist kein problem. es taucht im request zwei mal auf. ein mal im header und ein mal als cookie. wichtig ist nur das beide identisch sind. der tatsächliche wert ist egal.
- das access token schaut zwar aus wie ein login mit amazon token, lässt sich aber nicht über https://api.amazon.com/auth/O2/tokeninfo verifizieren.

schade ist das in den urls nur ids angegeben werden. weder eine stream url noch ein titel oder sender name.
die ids scheinen auch für jeden anders zu sein. d.h. wenn man das ganze in das alexa modul einbaut müsste jeder die urls aus der browser developer console extrahieren und eintragen.
hue, tradfri, alexa-fhem, homebridge-fhem, LightScene, readingsGroup, ...

https://github.com/sponsors/justme-1968

visionsurfer

Wäre halt der Hammer, wenn es doch eine Möglichkeit geben würde, einen DOT oder ECHO DOT z.B. für Sprachansagen nutzen zu können.
Das wäre aktuell mein Traum :)

Grüße,
Visionsurfer

Prof. Dr. Peter Henning

Seh ich mal etwas anders...

1. TTS Ivona für Android ist immer noch kostenlos erhältlich. Seit Amazon Ivona gekauft hat, wird aber an einem Bezahlmodell gebastelt => mittelfristig nicht mehr umsonst.
2. Es ist ziemlich ineffizient, dieselben Sprachausgaben immer wieder per Webservice in Audiodaten umwandeln zu lassen. Besser ist immer, möglichst viele Ansagen vorher aufzunehmen und dannnur abzuspielen.

Hier der Link:

https://eu-west-1.console.aws.amazon.com/polly/home/SynthesizeSpeech

LG

pah

Thyraz

hat er ja auch nicht explizit geschrieben.
Vorher aufgenommene Dateien fallen bei mir auch in die Kategorie "Sprachansage". ;)
Fhem und MariaDB auf NUC6i5SYH in Proxmox Container (Ubuntu)
Zwave, Conbee II, Hue, Harmony, Solo4k, LaMetric, Echo, Sonos, Roborock S5, Nuki, Prusa Mini, Doorbird, ...

visionsurfer

Hi,

richtig. Grundsätzlich wäre es mir ja egal, ob ich eine MP3 oder was auch immer Datei abspiele oder halt eine live erstellte Sprachansage abspiele.
Hauptsache ich könnte durch einen ECHO oder ECHO DOT überhaupt irgendwas abspielen lassen. Das wäre schon schön.

Wobei ich die live erzeugte Sprachansage schon schön finde. Weil man halt auch alles dynamisch erzeugen kann. Wenn ich z.B. mit vorher aufgenommenen Files die aktuelle Raumtemperatur ansagen lassen will, muss ich ziemlich viel aufnehmen vorher.

Grüße,
Visionsurfer

vbs

Finde das auch sehr interessant! Ich hoffe da kristallisiert sich eine handhabbare Möglichkeit heraus. Das Thema live erzeugen vs. Sprachdateien ist für mich ein Implementierungsdetail bzw. eine Optimierungsfrage. Der Dienst müsste halt die Sprache mindestens einmal synthetisieren. Wenn er es dann für angebracht hält, kann er das File gerne irgendwo cachen für eine spätere Wiedernutzung... wenn nicht auch gut...

Prof. Dr. Peter Henning

Nun, das ist auch eine Performance-Frage. Wenn ich einen längeren Hilfetext per TTS auf mehreren Devices ausgeben lasse und jedesmal dafür den Webservice aufrufe, kann das zu merkbaren Verzögerungen führen.

LG

pah

marty29ak

Alexa hat ja dieses "sprich mir nach" Kommando was ohne zusätzlichen Skill funktioniert.
Evtl. kann man das ja irgend wie nutzen.
Gruß Martin

cybergen

Danke für die Info :-)

Bis jetzt funktioniert es ganz gut..

Hab nun verschiedene Ansagen eingepflegt... z.B. wenn die Netatmo-Presence jemanden an der Türe erkennt sagt alexa "Eine Person befindet sich am Eingang" ..
oder "Rolladen werden in 10 Minuten geschlossen"

:-) Da werden Träume war...

jetzt muss es nur dauerhaft funktionieren.

ZitatUpdate 2018-06-12:
Das meistnachgefragte Feature TextToSpeech (TTS) ist nun endlich verfügbar. Dazu habe ich mich mit Hilfe von Ralf Otto bei den Sourcen des openHAB2 Amazon Echo Control Bindings von Michael Geramb bedient.
Text2Speech:

tklein

Hi,

vielleicht verstehe ich ja die Frage falsch, aber das Modul (EchoDevice) hier
https://forum.fhem.de/index.php/topic,82631.0.html ist dafür perfekt geeignet. Darüber kann man Alexa direkt individuelle Sätze sagen lassen.

Falls falsch von mir verstanden, bitte Post ignorieren. :-)

FHEM auf Pi 3, Echo (Plus, Dot und Connect), CUL868/433, HM Komponenten, Broadlink, Enigma (VU DUO2), Alexa/Homebridge, Sonoffs (POW, RF, Basic), Wemos D1 (IR, DHT, BH1750, OLED, BMP180), IT/Steckdosen, Fritzbox mit SIP, Wifilight, MQTT, Pilight, Xiaomi Flower Sensor, Spotify, Dooya, Shelly, Conbee2