[ VERSION 1.2.0 ] 74_AMAD.pm zur Steuerung eines Androidgerätes

Begonnen von CoolTux, 07 August 2015, 09:39:01

Vorheriges Thema - Nächstes Thema

CoolTux

Zitat von: ext23 am 23 August 2015, 21:57:21
Hab ich gemacht, hattest du ja oben geschrieben das man das machen soll.

Gruß
Daniel

Läuft der Flow denn bis zur Aktion durch? Du kannst auch mal eines machen,

Sichere den SetCommand Flow mit senden an!!!!


klick auf die Linie welche das Viereck berührt und lösche sie. Lege das Viereck einfach etwas zur Seite. Dann drücke auf die Raute wo die Linie her kam und dann auf das Plus. Sage neue Aktion und wähle dort Setze Display Helligkeit. Stelle einen festen Wert ein und teste dann ob sich da was ändert wenn Du in FHEM den set Befehl absendest.


Gruß
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

ext23

Naja das funktioniert schon alles wie es soll. Das liegt an dem Automagic. Irgendwie hat er da Probleme und schaltet das Licht aus. Mit Tasker geht es komischerweise.

Naja egal. Bleibt es eben hell.
HM, KNX, FS20, 1-Wire, PanStamp, AVR-NET-IO, EM1000EM, PCA301, EC3000, HM-LAN, CUL868, RFXtrx433, LGW, DMX @Ubuntu-Server (Hauptsystem) & Raspberry Pi (Satellit)

adb76

Zitat von: CoolTux am 23 August 2015, 20:35:39
@adb76
Spracheingabe mit AMAD wäre programmiertechnisch die Königsklasse, im Moment fühle ich mich eher wie ein Gaukler  ;D ;D. Aber bis ich wenigstens zum Ritter geschlagen werde, kann ich Dir empfehlen es mit Automagic in Verbindung mit Autovoice zu machen. Als Trigger nimmst Du Plugin und wählst dann AutoVoice aus. Und als Action einfach ein http://ip-fhem:8085/fhem?cmd=set lampeFlur on

Na, jetzt stelle mal dein Licht nicht so unter den Scheffel - hab mir mal das Modul angeschaut - IMHO sieht das sehr strukturiert und übersichtlich aus. Kenn jetzt aber nicht die weiteren Anforderung der FHEM-Profis an den Code.  ;)

Mein erste Idee bgzl. Spracheingabe für AMAD wäre wie folgt:

  • Aus Fhem gibt es ein "set myAMAD speechToText"
  • Dieses aktiviert auf dem Tablet die Spracheingabe in Automagic - ein entsprechendes Kommando konnte ich beim lesen der Automagic-Doku schon entdecken
  • Laut Doku ist das Ergebnis der Task ein String, welcher jetzt noch von FHEM abgeholt werden muss
  • Auf dem Ergebnis lassen sich dann in FHEM wieder entsprechende Kommandos steuern (z.B. über DOIF)

Soweit meine "graue Theorie". Stellt sich natürlich noch die Frage, ob man das alles synchron oder asynchron bauen sollte, also erst mit einem Request Spracheingabe triggern, dann Roman erzählen  ;D , dann wieder mit einem Request das Ergebnis abholen; oder alles über einen Request, was aber zu Blockadesituationen führen könnte.

Wenn die Idee soweit ok, würde ich mir das mal anschauen und ein paar Versuche starten - werde aber mangels Zeit wohl nicht vor dem Wochenende dazukommen.

Gruß,

André

CoolTux

Hallo André.

Wenn Du es brauchen kannst dann nur zu. Ich bastel Deine Idee gerne ein. Kannst ja ein Patch schreiben.

Ich persönlich bin da verwöhnt. Ich möchte einfach nur sagen "OK Google" und dann meinen Wunsch. Sobald ich die TCP Socket Geschichte eingebaut habe kann man da bestimmt mehr machen.

Gruß
Leon
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

CoolTux

Habe mir gerade mal die Aktion Sprachbefehl angeschaut. Ich muss sagen das der für AMAD doch zu unflexibel wäre. Dann müsste man mit Attributen und RegEx arbeiten um aus dem String das Gerät zu erkennen welches geschälten werden soll. Dann lieber eine fertige Lösung wie AutoVoice und dann die entsprechende Action. Bei der Action kann man dann ja was mit AMAD machen. Hält über einen eigenen TCP Socket.

Was haltet Ihr von Fullscreen und Bildschirmausrichtung? Kann das wer gebrauchen?
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

marvin78

Spracheingabe wird, meiner Ansicht nach, als Eingabemöglichkeit völlig überschätzt. Das ist oft nur Spielerei. Ähnlich wie Touchscreens bei Fernbedienungen für den Fernseher. Wer sich sowas ausdenkt, macht eventuell gutes Marketing, denkt aber nicht an den Einsatzzweck.

justme1968

ich glaube der vergleich ist nicht gut. ein touchscreen im dunkeln und ohne hinsehen zu bedienen ist wirklich blödsinn.

aber ohne hinzusehen zu sagen mach das licht aus oder mach den rollo hoch funktioniert sehr sehr gut und ist um längen besser als erst die app zu suchen, zu starten, das device zu suchen und dann endlich zu schalten.

spracheingabe ist sicher nicht für alles geeignet. für einfache kommandos und fragen ist es aber jetzt schon sehr viel besser als ich mir das habe vorstellen können.

gruss
  andre
hue, tradfri, alexa-fhem, homebridge-fhem, LightScene, readingsGroup, ...

https://github.com/sponsors/justme-1968

marvin78

Für mich macht das nur Sinn, wenn eines meiner Devices das selbst macht. Wenn ich google Now oder Siri dafür verwendet müsste, kräuseln sich bei mir nur durch grobes darüber nachenken, die Fußnägel. Welche wirklich praktikable Möglichkeit, ohne Verwendung eines solchen Spähdienstes, gibt es denn für Sprachbefehle?

justme1968

das ist wie immer ein abwägen zwischen nichts bezahlen wollen und dem komfort der geräte integration.

mit etwas geld und zeit lässt sich sicher auch eine offline spracherkennung in fhem integrieren. egal ob eine gekaufte wie dragon oder z.b. die auf auf dem mac im system verfügbare. 

die erkennungsrate lebt zum teil aber schon von der großen dafenbasis und bei siri auch davon das das sytstem meine geräte und räume 'kennt'.

wobei ich google und siri nicht in einen topf werfen würde.

ich habe kein problem siri meine lampen 'anzuvertrauen'. die steherung bzw. das pairing an sich ist komplett lokal und auf meine geräte beschränkt. das missbrauchspotential im schlimmsten fall sehr überschaubar.

mit google oder amazon würde fhem das eher nicht machen da ich hier schon das interesse am datensammeln und verknüpfen im vordergrund sehr.

was mich sehr reizen würde ist ein allways on system das auch auf den knopfdruck zum aktivieren noch verzichtet. das sehe ich aber in der tat nur bei einem offline system.

gruss
  andre
hue, tradfri, alexa-fhem, homebridge-fhem, LightScene, readingsGroup, ...

https://github.com/sponsors/justme-1968

marvin78

Ich habe kein Problem damit, für gute Lösungen Geld auszugeben. Das ist nicht der Faktor, der mich stört.

Ich sehe im Übrigen keinen Grund, zwischen Siri und google oder Amazon sehr groß zu unterscheiden. Ich nutze FHEM, um auf Lösungen, die meine Daten woanders hin schicken könn(t)en, zu verzichten. Dass Apple nicht oder wenig am Sammeln von Daten interessiert ist, halte ich auch für falsch. Ich gebe zu, dass ich mich mit Apple Lösungen nicht weiter auseinander gesetzt habe. Das werde ich jedoch auch nie tun. Spracheingabe interessiert mich zu dem Zeitpunkt, zu dem ich es offline und ohne einen weiteren Button oder Abhängigkeit von anderen Diensten, durchführen kann. Alles andere bleibt für mich nicht praktikabel. Da ich aber den Nutzen ohnehin nur für gering erachte, ist das sicher nicht mein primäres Ziel.

Das ist aber auch nur meine persönliche Meinung. Nichts weiter.

ext23

Ich hätte generell ein Problem eine Gerät in meiner Wohnung zu haben mit Internet Zugang und eingebautem Mikrofon (=Wanze). Wer weiß wer da alles mitlauscht. Das ist ja bei einem Smartphone schon ein Krampf die Rechte für das Mikro nur auf die Telefon App zu beschränken um das einigermaßen sicher zu machen. Bei meinem FHEM Tablet habe ich das Mikro extra ausgelötet, das ist mir dann zu heiß alles, auch wenn das ehe kein Zugang zum Internet hat, jedenfalls nicht ohne Umweg über eine extra Firewall.

Ich finde bei der Spracheingabe auch immer problematisch, dass man den genauen Wortlaut wissen muss. Da muss man immer extrem deutliches Hochdeutsch sprechen wie als wenn man mit jemanden spricht der schwerhörig und alt zugleich ist. Heißt das jetzt Lampe Wohnzimmer oder Wohnzimmer Lampe oder Licht Wohnzimmer oder Licht Stube oder .... also für mich war das nichts. Bis das Licht dann endlich an war hätte ich noch in Ruhe mein Rechner hochfahren können oder eine Kerze entzünden ;-) Aber ist ja Geschmackssache, andere kommen damit gut zurecht.

Abgesehen davon, die Fernbedienung mit Touchscreen ist aber sehr wohl gut :-) Das ist dann mal eine echte "Universalfernbedienung" weil man da die Tasten nämlich anpassen kann. Und ich nicht lernen muss das die Taste X bei dem Gerät Y das Menü öffnet.

Gruß
Daniel
HM, KNX, FS20, 1-Wire, PanStamp, AVR-NET-IO, EM1000EM, PCA301, EC3000, HM-LAN, CUL868, RFXtrx433, LGW, DMX @Ubuntu-Server (Hauptsystem) & Raspberry Pi (Satellit)

adb76

Hallo zusammen,

ich wollte hier mit meiner Frage keine Grundsatzdiskussion über das für und wider von Spracheingabe aufmachen. Es geht hier in dem Thread um AMAD und die Möglichkeiten von AutoMagic und nicht darum ob uns Google und Co. belauscht.

Meine Bitte: lasst uns hier wieder auf das Kernthema zurück kommen - bei Bedarf könnt ihr diese Diskussion ja in einem neuen Thread weiterführen.

Danke.

@CoolTux: Sorry. Wenn ich das gewusst hätte, hätte ich mir mal lieber nix gewünscht.   :(

marvin78

So Off-Topic ist das nicht. Eine grundsätzliche Diskussion dazu macht schon Sinn, denn so kann man besser entscheiden, ob man sofort, später oder nie Ressourcen auf das Thema verwendet.

CoolTux

@adb76

Ich finde Marvin hat Recht. So off topic ist das wirklich nicht. Und es gibt erst recht nichts zu entschuldigen. Egal wie seltsam ein Wunsch ist oder man glaubt es wird Diskussionen geben, schreibt mir was ihr Euch so vorstellt und wir schauen was man oder ob man was machen kann.

@all
kleiner Statusreport

Bildschirmausrichtung und Vollbild sind fertig. openApp ist vom Design her fertig und wird nun Stück für Stück implementiert.
Im Zuge von openApp ist mir eine Idee gekommen und mich interessiert Eure Meinung. Da die Liste der set Befehle immer länger wird, habe ich daran gedacht einige Befehle (so wie openApp) zu verstecken und nur sichtbar zu machen wenn ein Attribut gesetzt ist. Das könnte man zum Beispiel mit Vollbild und Bildschirmausrichtung auch machen. Was haltet Ihr davon??

Ausserdem habe ich vor die Tage zu schauen was Rudi zu dem Modul sagt. Eventuell wird es offiziell.

Grüße
Leon
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://www.paypal.com/paypalme/MOldenburg
My FHEM Git: https://git.cooltux.net/FHEM/
Das TuxNet Wiki:
https://www.cooltux.net

svenkoni

Hallo!

Ich habe heute morgen begonnen das AMAD Modul bei mir zu integrieren und viel damit experimentiert. Ich bin besgeistert ! Vielen Dank für die Arbeit.

Wenn Du ein Attribut nach dem Beispiel "Expert" aus den HM Heizungsmodulen meinst, finde ich es grundsätzlich gut, die Set Liste übersichtlich zu halten. Aber So sehr lang ist die Liste ja meiner Menung noch nicht. Außerdem ist die Einteilung in "wichtige" und "nicht so wichtige" set's sicher nicht einfach und von Nutzer zu Nutzer sicher höchst unterschiedlich.
Ich denke, solange man in der Auswahlliste noch nichts scrollen muss, ist es ausreichend übersichtlich.

Gruß
Sven