Lost in options - Yamaha, DLNA und MPD: Wie zusammenpuzzeln?

Begonnen von Beta-User, 21 Juni 2022, 17:30:05

Vorheriges Thema - Nächstes Thema

rcmcronny

Hi,

pulseaudio läuft als Systemdienst.  Die Änderungen an der /etc/pulse/system.pa belaufen sich bei mir auf folgende. Da sind noch ein paar Test Zeilen drin, das klappte damals nicht und bisher hatte ich keine  Zeit, da wieder ranzugehen(notwendig ist es für mich aktuell jedenfalls nicht). Das Ducking ist für die TTS Funktion.


####custom config#####
#sinks
load-module module-pipe-sink file=/media/snapcast/main.fifo sink_name=main format=s16le rate=48000
load-module module-pipe-sink file=/media/snapcast/kueche.fifo sink_name=kueche format=s16le rate=48000
load-module module-pipe-sink file=/media/snapcast/bad.fifo sink_name=bad format=s16le rate=48000
#test
#load-module module-simple-protocol-tcp sink=main record=true listen=127.0.0.1 port=4747 rate=48000 channels=2 format=s16le
#load-module module-simple-protocol-tcp sink=kueche record=true listen=127.0.0.1 port=4748 rate=48000 channels=2 format=s16le
#load-module module-simple-protocol-tcp sink=bad record=true listen=127.0.0.1 port=4749 rate=48000 channels=2 format=s16le
#combined sinks
load-module module-combine-sink slaves=main,kueche,bad sink_name=alle
# ducking (lower volume during tts announcements
load-module module-role-ducking trigger_roles=announcement ducking_roles=music volume=-20dB global=true

#network
load-module module-native-protocol-tcp auth-anonymous=1 auth-ip-acl=127.0.0.1;10.0.0.0/23
load-module module-zeroconf-publish


Die mpds laufen als Slaves auf der gleichen Datenbank und von der gleichen Quelle, ist für mich nur für "jeder Raum könnte anderes abspielen", in der Regel nutze ich aber den Hauptstream und verteile den  auf die Räume. Der Normale MPD hat als Audio (direkt per Pulse) folgendes: (pa-main ist der normale hauptstream , küche und bad die 2 anderen räume und pa-alle nochmal der sink für alles zusammen)  Das steuere ich dann per Snapcast Modul im FHEM,was aktiv ist etc). Wenn ich ins Bad gehe, schalte ich aktiv zu, mit Logik dann (Läuft ein Stream, schalte dich dazu, wenn nein starte ihn und schalte bad aktiv usw. Ist noch nicht perfekt, für mich aber derzeit ausreichend).
Die 2 Slave MPDs für Bad und Küche laufen mit, und haben dann nur das pa-bad / pa-kueche und pa-alle als sink). Wie gesagt, nutze ich kaum, klappt aber.


audio_output {
    type            "pulse"
#    media_role      "music"
    name            "pa-main"
    server          "localhost"        # optional
    sink            "main"             # optional
    format          "48000:16:2"
}
audio_output {
    type            "pulse"
#    media_role      "music"
    name            "pa-kueche"
    server          "localhost"        # optional
    sink            "kueche"           # optional
    format          "48000:16:2"
}
audio_output {
    type            "pulse"
#    media_role      "music"
    name            "pa-bad"
    server          "localhost"        # optional
    sink            "bad"              # optional
    format          "48000:16:2"
    mixer_type      "software"
}
audio_output {
    type            "pulse"
#    media_role      "music"
    name            "pa-alle"
    server          "localhost"        # optional
    sink            "alle"              # optional
    format          "48000:16:2"
}

audio_output {
        type            "httpd"
        name            "HTTP Stream"
        encoder         "vorbis"                # optional, vorbis or lame
        port            "8000"
        bind_to_address "0.0.0.0"               # optional, IPv4 or IPv6
        quality         "5.0"                   # do not define if bitrate is defined
#       bitrate         "128"                   # do not define if quality is defined
        format          "44100:16:1"
        max_clients     "10"                     # optional 0=no limit
}


Zusätzlich habe ich ein http stream aktiv, für debugging manchmal nützlich.

Fhem nutzt pulse per /etc/pulse/default.pa:

load-module module-zeroconf-discover

load-module module-tunnel-sink server=10.0.0.51


Damit stehen die Sinks auch hier zur Verfügung.

Fhem macht TTS bei mir per:

defmod MyTTS Text2Speech default
attr MyTTS DbLogExclude .*
attr MyTTS TTS_Language Deutsch
attr MyTTS TTS_MplayerCall sudo /opt/fhem/mplayer.sh
attr MyTTS TTS_UseMP3Wrap 1
attr MyTTS room media
attr MyTTS verbose 1


Und die mplayer.sh sieht so aus (man sieht, ist nicht final, eher ein "gefrickel" aber war nie zum zeigen gedacht.

#!/bin/sh
# zum Test ausgeben
# echo Parameteranzahl $# > /tmp/mplay.txt

# falls volume nicht vorhanden = 1
volume=1
# Dateinamen und Volume ermitteln
while [ $# -gt 0 ]
do
#       echo $1 >> /tmp/mplay.txt
        if [ $1 = -volume ]
        then
                shift
#               echo $1 >> /tmp/mplay.txt
                        if [ $1 -lt 100 ]
                        then
                                volume=0.$(($1))
                        fi
        elif [ -e $1 ]
        then
                file=$1
        fi
        shift
done
# zum Test ausgeben
#echo $volume $file >> /tmp/mplay.txt
PULSE_PROP='media.role=announcement' play -q -v $volume $file
#geht nich   cat ${file} | nc 10.0.0.51 4953
exit 0


So ich hoffe, das waren alle Fragen, falls nicht, bitte nochmal erwähnen. Und natürlich es hilft euch.

Als KVM ist Ubuntu primär wegen dem MPD damit es nicht asbach uralt ist (wie bei Debian). Das LTS alle 2 Jahre ist ne ganz brauchbare Basis find ich. Und als VM braucht der kaum Ressourcen. Läuft auf meinem Linux Rechner halt mit, der ehh läuft.  FHEM auf nem PI4 8GB (extra getrennt, macht einiges leichter, einiges auch schwerer :D).

Ronny

Beta-User

So, DANKE! - es "zuckt"...

Soundausgabe auf dem Weg MPD@FHEM-Server => pulseaudio@FHEM-Server => Snapcast-Server@FHEM-Server => Snapcast-Client "irgendwo" (auch Medienrechner-HDMI=>Yamaha) läuft prinzipiell :) .

Was auch anscheinend (prinzipiell) läuft, sind die neuen Modulfassungen zu Snapcast und OpenMultiroom: https://forum.fhem.de/index.php/topic,128206.msg1226511.html#msg1226511, ausgiebiges Testen wäre super (ist aber gefahrgeneigt, u.a. auch deswegen, weil ich noch gar nicht weiß, wie alles geht und auch keine große Testumgebung habe!).

Was bisher nicht klappt, ist eine "einfache Soundausgabe" auf dem Weg mplayer => raop-sink => Yamaha. Es sieht zwar auf der Kommandozeile so aus, als würde was abgespielt, aber effektiv kommt halt nichts aus den Lautsprechern (Befehl(e) liefere ich nach) :( .

Bevor es einen kleinen update betr. der settings in MPD statt/ergänzend zu Mopidity gibt, noch ein paar Fragen:
Zitat von: rcmcronny am 29 Juni 2022, 19:15:38
pulseaudio läuft als Systemdienst. 
Soweit, so klar. Demnach läuft es nicht als "daemon" (Startoption "-D" in der systemd-service-Datei).

(@Wernieman: vielleicht kannst du mir kurz verklickern, was eigentlich der Unterschied ist zwischen diesen Modi? Oder geht es nur darum, woher die Startparameter kommen (was bei mir bzgl. snapcast angekommen ist: über den -d Parameter wird (u.a.?) gesteuert, woher die Konfiguration gelesen wird.)

Zitat
Da sind noch ein paar Test Zeilen drin,
Danke, dass du auch deine "unfertigen" Dinge zeigst! So habe ich wenigstens einen Anhaltspunkt und man kann ggf. darüber diskutieren, ob/wie es besser geht!

ZitatDas Ducking ist für die TTS Funktion.
OK. Demnach funktioniert das bzgl. des sounds aus MPD auch ohne explizite Angabe der "media_role" (die wenn angegeben anscheinend zu Problemen führt?)

ZitatDie mpds laufen als Slaves auf der gleichen Datenbank und von der gleichen Quelle, [...]
Thx, das ist auch das Modell, was mir in etwa vorschwebt. Ich muss nur dann demnächst entscheiden, wie eigentlich die Hardware künftig organisiert werden soll bzw. was ggf. wo laufen darf. ("Server"-) Hardware ist unterwegs, werde dann mal als erstes den Stromverbrauch ansehen und dann entscheiden was und wie.

ZitatFhem macht TTS bei mir per:

defmod MyTTS Text2Speech default

...also eine Art "Einheitsmodell". Leider ist der "output"-Teil beim Text2Speech-Modul nach meinem Eindruck nicht wirklich gut dokumentiert, aber das (iVm. der .sh) sieht dann so aus, als würde schlicht am FHEM-Server irgendwas ausgegeben? Oder welches Bausteinchen fehlt mir zum Verständnis?

Was TTS angeht, plane ich zur Generierung der Soundfiles eventuell auf "Mimic 3" zu gehen: https://github.com/MycroftAI/mimic3, Ankündigung siehe https://community.rhasspy.org/t/mimic-3-tts-preview/3651. Meine Tests vor Wochen klangen ganz ok, leider war die direkte Einbindung in RHASSPY ein Problem und die Auslastung der Hardware zu hoch, so dass das erst mal auf der Seite gelandet war...

ZitatLäuft auf meinem Linux Rechner halt mit, der ehh läuft.
Ist zwar OT, aber warum laufen die MPD dann nicht nativ da drauf? Wegen des separaten pulseaudio-Servers?

Hintergrund der Frage: Falls ich mit der neuen Hardware "einfach nur" meinen alten Wohnzimmer-Rechner ersetze, wird das vermutlich dann (u.A. auch) der "zentrale Soundserver" werden - also ähnlich wie bisher, aber in der "XL-Fassung" mit mehreren MPD-Instanzen, dem snapserver und zwei snapclient-Instanzen. Btw.: TvHeadend läuft darauf dann ggf. auch noch...
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: MiLight@ESP-GW, BT@OpenMQTTGw | MySensors: seriell, v.a. 2.3.1@RS485 | ZWave | ZigBee@deCONZ | SIGNALduino | MapleCUN | RHASSPY
svn: u.a MySensors, Weekday-&RandomTimer, Twilight,  div. attrTemplate-files

Wernieman

Als Deamon läuft der pulsaudi immer, als User nur, wenn das passende Programm gestartet wird .. so habe ich es jedenfalls verstanden ..
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

Beta-User

Hmmm, Danke für die Antwort.

Habe dazu noch das hier gefunden (offizielle Doku unter https://www.freedesktop.org/wiki/Software/PulseAudio/Documentation/User/Daemon/):
ZitatIt is a good idea to run the daemon like this:
pulseaudio -D 
This will run /etc/pulse/default.pa after startup. This should be a script written in the CLI language.
Würde das jetzt so interpretieren, dass das "eigentlich nur" darüber entscheidet, ob (auch!) die default.pa geladen wird, oder nur die user-spezifische Konfiguration (abgelegt irgendwo anders).

Aber jetzt habe ich zumindest eine Idee, warum der "-D"-Parameter dazu geführt hat, dass nichts mehr ging: Es wurden die user-spezifische Konfiguration (wegen --sysstem: system.pa) _und_ die _default.pa_ geladen, und da gab es wohl in letzterer was, was kontraproduktiv war (vermutlich: automatisches Entladen von allem, was man nicht braucht)....

Was du beschreibst, würde ich zum einen mit "--system" in Verbindung bringen (läuft, ohne dass ein User eingeloggt sein muss),
[Service]
ExecStart=/usr/bin/pulseaudio --system
und zum anderen mit "autospawning", also dem (als default hinterlegten) automatischen Start des Dienstes, sobald ihn jemand benötigt.
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: MiLight@ESP-GW, BT@OpenMQTTGw | MySensors: seriell, v.a. 2.3.1@RS485 | ZWave | ZigBee@deCONZ | SIGNALduino | MapleCUN | RHASSPY
svn: u.a MySensors, Weekday-&RandomTimer, Twilight,  div. attrTemplate-files

rcmcronny

Hi,

wenn ich mich richtig erinnere, ist die Media Role "music" der Standard und muss nicht angegeben werden.  Klappte bei mir auch nie zuverlässig.
Beim TTS das aber anzugeben sorgt dann erst für die Absenkung der Musik und bessere Verständlichkeit und klappt wie es soll. 

Ich betreibe das in der VM nur, weil ich so das getrennt habe und im Fall der Fälle die VM umziehen kann und auch Backups wiederherstellen usw, machts einfacher, ist aber auch mehr Aufwand wegen Updates usw.
Vielleicht kann man das auch mit Docker in ein Dockerfile quetschen und so ein Kompromis machen. Direkt geht aber auch, so invasiv ist das ja beim Snapcast und mpd nicht :) Schönes kleines Projekt find ich.

Ich wollte auch erst fertige Hardware usw , aber letztlich hat man dann immer Sachen, die unschön sind. Daher habe ich dann einen Pi Zero (damals 12 Eur glaube rum) mit einem DAC HAT (oder auch AMP  HAT) je nach Boxen und Wünschen besorgt und fahre damit sehr gut. Klein, wenig Strom, SD Karte kann man einfach Sichern und Wiederherstellen bei Bedarf .. und Hardware ist auch flexibel.
In der Küche ist das in so Regalboxen eingebaut (Hinten auf, Alles rein, Buchse für Strom ins Holz einbauen und man kann von Aussen kam sehen, was der kann.

Es gibt auch bei Snapcast ein Projekt den ESP32 mit Sound DAC zu nutzen, scheint aber nur halbgar aktuell zu sein. Das wäre natürlich auch ganz nett, vor allem für TTS Sachen vielleicht.

Ronny

Beta-User

OK, dann werde ich den Parameter im Wiki bzgl. MPD/pulse einfach weglassen - dass man zusätzlich bei der "überlagernden Quelle" dann den Parameter mit angeben muss, erscheint logisch.

Wie gesagt: Mit TTS habe ich erst seit RHASSPY was am Hut - aber da dann experimentell auch schon mal mit einem ESP32 (M5 Atom Echo) rumgespielt. Das geht, aber der Ton ist mickrig und - mit den falschen Parametern kompiliert - auch zerhackt. Die nächste Generation kann das vermutlich besser, aber dann sind wir auch strommäßig vermutlich in der selben Liga wie ein Pi. Der Vorteil bliebe, dass man nicht ständig nach updates suchen muss, um das halbwegs sicher zu halten...

Ansonsten bastle ich auch eher "retro-like" Zeug selber oder nehme was gebrauchtes, statt irgendeine neue proprietäre Lösung ins Haus zu holen, von der man nie so recht wissen kann, wann die was wohin sendet.

In die Küche habe ich "damals" ein paar Kabel verlegt, von daher ist der Sound da ordentlich, ganz ohne extra Pi 8) .
"Nur" das Wählen einer passenden Quelle und Umswitchen zwischen verschiedenen Medienarten (und die "Autonomie" zwischen den Zonen) könnte/will ich verbessern.
Aber vielleicht "motze" ich einen alten Radiowecker für's Schlafzimmer auf...?!? Diverse 2-er Pi lägen hier auch noch rum, und ein ungenutzer 3-er samt (mini-) Audio-Hardware wäre auch noch im Fundus, der könnte "nebenbei" noch als RHASSPY-Satellit eingesetzt werden... (Oder kauf' doch mal eines dieser neuen Schnickschnacks, wenn mal klar ist, wie man das generisch ansteuern kann...?).

Optionen über Optionen ;D .
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: MiLight@ESP-GW, BT@OpenMQTTGw | MySensors: seriell, v.a. 2.3.1@RS485 | ZWave | ZigBee@deCONZ | SIGNALduino | MapleCUN | RHASSPY
svn: u.a MySensors, Weekday-&RandomTimer, Twilight,  div. attrTemplate-files

Wernieman

Fertiger Docker Container mit MPD/Pulseaudio und SnapCast währe durch aus auch nicht zu verachten ... ;o)
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

Beta-User

Ja... :-X ??? ::) :o :-[ :-[ :-[

Hatte auch schon daran gedacht, ggf. auf der neuen Hardware mal LXC auszutesten. docker hätte für mich den (kleinen) Vorteil, dass ich damit schon "Erfahrung" habe (aber eigentlich froh war, als es (damals mit deconz) auch so ging...).

Interessehalber: Was müßte man denn tun/liefern, um eine "Muster-dockerfile" zu erstellen, mit deren Hilfe dann ein Einsteiger (oder jemand, bei dem FHEM schon dockerized ist) dann relativ schnell zu einem lauffähigen System kommen würde? Also (skalierbar) z.B. die 4 Räume/Snapclients aus dem OpenMultiroom-Wiki?
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: MiLight@ESP-GW, BT@OpenMQTTGw | MySensors: seriell, v.a. 2.3.1@RS485 | ZWave | ZigBee@deCONZ | SIGNALduino | MapleCUN | RHASSPY
svn: u.a MySensors, Weekday-&RandomTimer, Twilight,  div. attrTemplate-files

Wernieman

Eigentlich mindestens eine docker-compose.yml ... und Dockefiles, die dann den Container erstellen. Würde mich dranmachen, nur fahre ich demnächst in den Urlaub .... (Ohne "nette Inder")
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

Beta-User

Zitat von: Wernieman am 01 Juli 2022, 12:05:36
Eigentlich mindestens eine docker-compose.yml ... und Dockefiles, die dann den Container erstellen. Würde mich dranmachen, nur fahre ich demnächst in den Urlaub .... (Ohne "nette Inder")
Lass dir Zeit bzw. wir können das dann gerne nach deinem Urlaub nochmal aufgreifen.

Denn
Zitat von: Beta-User am 30 Juni 2022, 13:56:51
Ich muss nur dann demnächst entscheiden, wie eigentlich die Hardware künftig organisiert werden soll bzw. was ggf. wo laufen darf. ("Server"-) Hardware ist unterwegs, werde dann mal als erstes den Stromverbrauch ansehen und dann entscheiden was und wie.
[...]
Falls ich mit der neuen Hardware "einfach nur" meinen alten Wohnzimmer-Rechner ersetze, wird das vermutlich dann (u.A. auch) der "zentrale Soundserver" werden - also ähnlich wie bisher, aber in der "XL-Fassung" mit mehreren MPD-Instanzen, dem snapserver und zwei snapclient-Instanzen. Btw.: TvHeadend läuft darauf dann ggf. auch noch...
die Hardware ist da :) . Bis ich die darin verbaute HDD mal abgestöpselt hatte, war ich reichlich enttäuscht ob des Geräuschlevels, und der "Schnelltest" beim Energiebedarf war auch "so so la la". Ohne die HDD:  8) 8) 8)

Konkreter: Ist ein EliteDesk 800 G4 SFF mit i3-CPU, idle (zeigt nur das Menü zur Sprachauswahl bei der Win-Installation an) scheint der sich ohne HDD <5W zu gönnen ("Messgerät" ist ein innr-Zwischenstecker). Bei Gelegenheit werde ich das eventuell im "Thinclient-Thread" kurz aufgreifen, ist m.E. (abgesehen von den Lüftern) dann auch eine "sehr gute Ersatzlösung" für vergriffene Pi's...

Meine Erwartung ist, dass ich schlicht die SDD's+TV-Karte aus dem vorhandenen Rechner nehme, das alles da reinstecke, ein wenig Spaß mit UEFI habe und dann binnen überschaubarer Frist mehr oder weniger 1:1 den heutigen Stand habe. Nur eben mit mehr Ausbaureserven und deutlich potenterer Hardware ;) . V.a. hat das Ding wieder einen hinten liegenden Kopfhörerausgang, der ggf. sogar digital spricht?
Damit sollte es möglich sein, an dem Yamaha zwei unterschiedliche Schnittstellen ohne großes Netzwerk-Gefrickel (abgesehen von 127.0.0.1) zu beliefern :) .

Dann wird wohl als nächstes MPD aus der User-Sphäre verbannt und ein paar Slaves dazu angelegt, vermutlich dann RHASSPY (wieder) auf diese Hardware verlegt und
Zitat
Was TTS angeht, plane ich zur Generierung der Soundfiles eventuell auf "Mimic 3" zu gehen:
Siehe auch https://forum.fhem.de/index.php/topic,128240.0/topicseen.html

Mal sehen...
Erst mal muss die Hardware (weiter-) laufen ;D
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: MiLight@ESP-GW, BT@OpenMQTTGw | MySensors: seriell, v.a. 2.3.1@RS485 | ZWave | ZigBee@deCONZ | SIGNALduino | MapleCUN | RHASSPY
svn: u.a MySensors, Weekday-&RandomTimer, Twilight,  div. attrTemplate-files

Beta-User

#25
Zitat von: Beta-User am 01 Juli 2022, 12:57:13
Erst mal muss die Hardware (weiter-) laufen
Der Teil war erfreulich stressfrei (nachdem die M.2-SSD endlich rausdurfte - nach der "Redmond-typischen Update-Orgie", die man sicherheitshalber benötigt, um alles firmwares+BIOS auf Stand zu bringen...); nicht mal "Spass mit UEFI" war angesagt :) .

ZitatEnergiebedarf [...] ("Messgerät" ist ein innr-Zwischenstecker)
Weiter sehr akzeptabel: Natürlich sehr schwankend, je nachdem, was grade abgerufen wird. Ohne dass sonst groß was passiert liegt es grade bei ca. 10-12W (2 SSD, eine Twin-Tuner-Sat-Receiver-Karte für TvHeadend) => deutlich weniger als mein bisher genutzter WYSE-ThinClient.

Interessehalber ging jetzt als erstes "mimic3-server" an den Start - mit "thorsten_low" gibt's einen RTF von < 0.11 und eine Prozessorlast <40%, das ganze funktioniert nun auch mit meiner RHASSPY-Installation (mein erster Test mit der preview-Version vor einigen Wochen war erfolglos geblieben).

Als nächstes geht es dann mal ans Aufräumen und Weiterexperimentieren...

Was mich wundert: Bisher kein einziger Download der neuen Versionen von Snapcast & Openmultiroom...?

EDIT - Noch ein interessanter Fund hier im Forum betr. TTS-Ausgabe via raop: https://forum.fhem.de/index.php/topic,119278.msg1137044.html#msg1137044
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: MiLight@ESP-GW, BT@OpenMQTTGw | MySensors: seriell, v.a. 2.3.1@RS485 | ZWave | ZigBee@deCONZ | SIGNALduino | MapleCUN | RHASSPY
svn: u.a MySensors, Weekday-&RandomTimer, Twilight,  div. attrTemplate-files

rcmcronny

Hallo,

Hatte ich wohl übersehen, habe den Thread nun abonniert und die beiden eingespielt.

Ronny

Beta-User

So, nachdem es hier eine zeitlang sehr ruhig war, zumindest mal ein Zwischenstand:
- Soundausgabe klappt (mittlerweile anscheinend ohne Aussetzer) auf dem Weg  (alles auf/an derselben Maschine!):
TvHeadend -> MPD(-User) -> pulseaudio (fifo-sink) -> Snapserver -> Snapclient -> pulseaudio (alsa-sink) -> HDMI -> Yamaha
- Text2Speech generiert mp3's (via Mimic 3, also offline! - Wer es testen will: Die Installation ist in wenigen Minuten erledigt, angepaßtes Modul für FHEM ist in https://forum.fhem.de/index.php/topic,128240.msg1227529.html#msg1227529 zu finden...)

Noch nicht optimal:
- pulseaudio (und MPD) auf dieser Maschine läuft (noch) in der User-Späre. Dadurch muss man auch snapclient noch manuell starten, weil die echten Ausgabe-sinks nicht rechtzeitig verfügbar sind (geplant: noch ein 2., analoger Stereo-Ausgang neben hdmi, vielleicht kann man sogar den im Gehäuse verbauten Lautsprecher direkt und getrennt ansteuern?)
- es gibt noch keinen "entfernten Player", der (Netzwerk-) sinks auf dem "Soundserver" nutzen könnte, und auch die Syntax ist noch zu verifizieren. Material wäre in https://wiki.das-labor.org/w/Audio_Streams zu finden... (irgendwie liest sich das so, als müßten die (module-tunnel-sink-new-) sinks nicht vorher angelegt werden? Kommt mir komisch vor.)
- Das FHEM-Modul für Snapcast scheint noch ein paar Problemchen mit Gruppen zu haben (bitte (noch) nicht austesten! Ist in der Mache.).

Eines nach dem anderen...
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: MiLight@ESP-GW, BT@OpenMQTTGw | MySensors: seriell, v.a. 2.3.1@RS485 | ZWave | ZigBee@deCONZ | SIGNALduino | MapleCUN | RHASSPY
svn: u.a MySensors, Weekday-&RandomTimer, Twilight,  div. attrTemplate-files

Wernieman

Zitat- pulseaudio (und MPD) auf dieser Maschine läuft (noch) in der User-Späre. Dadurch muss man auch snapclient noch manuell starten, weil die echten Ausgabe-sinks nicht rechtzeitig verfügbar sind (geplant: noch ein 2., analoger Stereo-Ausgang neben hdmi, vielleicht kann man sogar den im Gehäuse verbauten Lautsprecher direkt und getrennt ansteuern?)
Dies ist wirklich ein Problem? Kannst Du denn den snapclient nicht nach pulseaudio starten und damit sollte der sink da sein?
- Bitte um Input für Output
- When there is a Shell, there is a Way
- Wann war Dein letztes Backup?

Wie man Fragen stellt: https://tty1.net/smart-questions_de.html

Beta-User

Zitat von: Wernieman am 01 August 2022, 08:30:01
Dies ist wirklich ein Problem? Kannst Du denn den snapclient nicht nach pulseaudio starten und damit sollte der sink da sein?
Jein. Das ging vermutlich, wenn ich den snapclient auch in die User-Sphäre verlagern würde - aber ich will eigentlich bei Gelegenheit mal den umgekehrten Weg gehen und Pulseaudio als Systemdienst starten.
Wird aber (vermutlich) noch dauern, muss erst ein paar andere Baustellen wieder zumachen, was ohne Musik weniger spaßig wäre ;D ...
Server: HP-elitedesk@Debian 12, aktuelles FHEM@ConfigDB | CUL_HM (VCCU) | MQTT2: MiLight@ESP-GW, BT@OpenMQTTGw | MySensors: seriell, v.a. 2.3.1@RS485 | ZWave | ZigBee@deCONZ | SIGNALduino | MapleCUN | RHASSPY
svn: u.a MySensors, Weekday-&RandomTimer, Twilight,  div. attrTemplate-files