Sprachsteuerung mit Mycroft

Begonnen von AndiTheBest, 20 August 2015, 10:38:33

Vorheriges Thema - Nächstes Thema

AndiTheBest

Hallo,

hab gerade dieses Projekt gefunden:
https://www.kickstarter.com/projects/aiforeveryone/mycroft-an-open-source-artificial-intelligence-for
Lässt sich vermutlich sehr gut mit FHEM kombinieren wenn es raus kommt.
Ich habe schonmal was am RPi getestet, das zuerst offline auf seinen Namen wartet und den Rest dann über die Google-API schickt, hat allerdings nicht brauchbar funktioniert.
Oder gibts schon andere brauchbare Projekte zur Spracherkennung, die ohne Android funktionieren?

f-zappa

Moin,
ich bin letztens auch auf mycroft aufmerksam geworden. Hat das denn inzwischen mal jemand ausprobiert?
Gruß, Uli

tiroso

Eine offline Hotword Erkennung klappt echt klasse mit Snowboy. Solltest du dir dann mal ansehen. Erst bei Erkennung nimmst du den Puffer und schickst ihn anschließend über die Google api. Klappt super und die Erkennung ist klasse.

Ich werde mir aber auch mal Mycroft ansehen.

f-zappa

Zitat von: tiroso am 18 Juli 2017, 16:00:54
.. schickst ihn anschließend über die Google api ..
Und genau das finde ich weniger schön, mycroft arbeitet doch komplett lokal? Oder macht der die Spracherkennung auch in irgendeiner Cloud?

Quant

Auch Mycroft wertet lokal nur das Hotword aus, und sendet dann an eine (oder mehrere, z. Zt. noch nicht benannte) Online-API:
FAQ Punkt 1 und 3

f-zappa

Zitat von: ~Thomas am 18 Juli 2017, 16:27:51
Auch Mycroft wertet lokal nur das Hotword aus, und sendet dann an eine (oder mehrere, z. Zt. noch nicht benannte) Online-API:
FAQ Punkt 1 und 3
Danke für den Link .. tja, damit ist es sofort deutlich weniger spannend. Aber wenn man noch ein Weilchen wartet, wird hoffentlich irgendwann die komplette Spracherkennung lokal laufen können.

sbiermann

Zitat von: f-zappa am 19 Juli 2017, 13:20:21
Danke für den Link .. tja, damit ist es sofort deutlich weniger spannend. Aber wenn man noch ein Weilchen wartet, wird hoffentlich irgendwann die komplette Spracherkennung lokal laufen können.
Das wird es meiner Meinung nach erst geben wenn es zuhause Quantencomputer gibt. Weil eine richtig gute Erkennung (nicht nur einzelne Wörter, sondern den semantischen Sinn) ist nicht trivial und braucht viel Rechenpower und noch viel viel mehr "Beispiel Sprache" an denen die Algorithmen lernen können.

buzzdeebuzz

Der Vollständigkeit halber hier die URL zur Homepage.: https://mycroft.ai/

dkreutz

Es gibt Neuigkeiten in Form eines Mycroft-Skills für FHEM - siehe hier
Raspberry Pi3B+ (Bullseye) / JeeLink868v3c (LaCrosse), nanoCUL433 (a-culfw V1.24.02), HM-MOD-UART (1.4.1), TEK603, MapleCUL / diverse Sensoren/Sender/Aktoren von Technoline, Intertechno, Shelly, Homematic und MAX!, Froggit Wetterstation, Luftdaten.info / Autor des fhem-skill für Mycroft.ai