Siri bald auch offline verfügbar?

Begonnen von aramis, 29 Januar 2019, 11:23:41

Vorheriges Thema - Nächstes Thema

aramis

Hallo zusammen,

Laut verschiedenen Quellen plant Apple wohl eine Siri-offline Variante. (Quelle 1)
Für mich als jemand der seine Daten des Smarthomes bzw der Sprachbefehle nicht an Amazon, Google usw schicken mag, ist das sicher total interessant.
Auch wenn ich bis heute noch kein Apple Produkt bei mir im internen Netz im Einsatz hat (ein Geschäftshandy im Extranet ohne Zugriff auf das interne Netz) würde ich mir sogar überlegen ein Gerät anzuschaffen.

Jetzt meine Überlegung bzw. meine Hirngespinst:
Ich schicke die Sprachbefehle über einen noch nicht definierten Weg an das Siri-Offline Device, dieses verarbeitet dann den Sprachbefehl (STT) und schickt den Befehl dann an FHEM.
Umgekehrt würde es dann so sein dass wenn Text ausgegeben werden soll Siri den "vorliest" und an die Sonos Boxen schickt.

Würde so etwas rech technisch betrachtet gehen? Wenn ja wie könnte so etwas aussehen?
Ich bin zwar in der IT beheimatet, aber bei mir hört es nach Routing und Switching an der Firewall im Layer 4 des OSI Referenzmodels auf.

Grüße
aramis

####################
=> ganz viele verrückte Ideen
####################

justme1968

wenn apple so etwas macht dann wird es ziemlich sicher so tief im system integriert das du nicht auf api ebene sprache hin schicken kannst und ein ergebnis zurück bekommst.

sondern du wirst wie bisher in dein iphone oder home pod sprechen und die erkennung triggern dir bisher schon vorhandenen apis wie homekit.

aber bis es so etwas tatsächlich gibt bleibt das spekulation.

auch wie gut die erkennung ohne cloud data mining ist.
hue, tradfri, alexa-fhem, homebridge-fhem, LightScene, readingsGroup, ...

https://github.com/sponsors/justme-1968

dkreutz

Da würde ich eher auf Mozilla Deepspeech setzen - da arbeitet man an einer STT-Engine (Pipsqueak) die auf einem RPI3 laufen kann...
Raspberry Pi3B+ (Bullseye) / JeeLink868v3c (LaCrosse), nanoCUL433 (a-culfw V1.24.02), HM-MOD-UART (1.4.1), TEK603, MapleCUL / diverse Sensoren/Sender/Aktoren von Technoline, Intertechno, Shelly, Homematic und MAX!, Froggit Wetterstation, Luftdaten.info / Autor des fhem-skill für Mycroft.ai

aramis

Zitat von: dkreutz am 29 Januar 2019, 20:24:09
Da würde ich eher auf Mozilla Deepspeech setzen - da arbeitet man an einer STT-Engine (Pipsqueak) die auf einem RPI3 laufen kann...

Wow das hört sich ja cool an. Wäre interessant wenn es dann mit einem Matrix Voice funktioniert.
Jasper war da leider nicht so der Bringer.

Ich bin gespannt wann da eine Lösung für den PI3 erscheinen wird.
####################
=> ganz viele verrückte Ideen
####################

MadMax-FHEM

Nachdem mein Test zwischen Alexa und Google für (aktuell) Alexa ausgefallen ist...
...ich aber auch eher ohne Cloud hätte teste ich aktuell das hier: https://forum.fhem.de/index.php/topic,89548.msg820184.html#msg820184

Parallel spiele ich noch mit MyCroft bzw. PiCroft rum...

Gruß, Joachim
FHEM PI3B+ Bullseye: HM-CFG-USB, 40x HM, ZWave-USB, 13x ZWave, EnOcean-PI, 15x EnOcean, HUE/deCONZ, CO2, ESP-Multisensor, Shelly, alexa-fhem, ...
FHEM PI2 Buster: HM-CFG-USB, 25x HM, ZWave-USB, 4x ZWave, EnOcean-PI, 3x EnOcean, Shelly, ha-bridge, ...
FHEM PI3 Buster (Test)