Autor Thema: Projekt 2018: Virtualisierungscluster mit Proxmox und Netzwerk redesign  (Gelesen 26253 mal)

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Anfang des Jahres kam das Bedürfnis auf, mehr Möglichkeiten zum testen zu haben. Nicht nur privat für FHEM sondern auch beruflich. Daraus entstand die Idee einer Virtualisierungsumgebung. Schnell habe ich bei der Suche gefallen an Proxmox gefunden. Erste Testinstallationen boten vielversprechendes.
Und somit war der Plan geboren meine derzeitige Umgebung samt Netzarchitektur komplett um zu bauen.


Noch mehr Infos zu Proxmox, CEPH und Co (Container?) bekommt Ihr in meinem privaten TuxNet-Wiki



Das Konzept
Ist Stand:
  • 1 pi-proxy01 - Banana Pi Router (Servernetz, Usernetze, Smarthomenetz, DMZ)
  • 1 pi-fhem01 - Raspberry Pi 2 B+ FHEM Master (Server Netz)
  • 1 pi-fhem02 Raspberry Pi 2 B+ FHEM Slave (Server Netz)
  • 1 fritzbox - Fritzbox (DMZ)
  • 1 Homematic Lan Gateway (Smarthome Netz
  • 1 Philips Hue Gateway (Smarthomenetz)
  • diverse Haushaltsgeräte im Wlan unterteilt in 7 VLan Sektionen (Fernsehr, Kaffeemaschine, GHome, Tablets, Notebooks) (Usernetze, Smarthomenetz, Multimedianetz)

Soll Stand:
  • Proxmox Virtualisierungs Cluster
  • Ceph Storage Cluster

Virtualisierung wo es nur geht und Sinn macht. Derzeit angedacht ist
  • prod-proxy01 - Router / ipfire Distribution Firewall, Proxy mit Filter / HA Konfiguration
  • prod-fhem02 - FHEM Slave / debian9 Distribution
  • prod-suma01 - SLES12 SP 3 mit Suse Manager AddOn
  • prod-am01 - Access Manager Appliance / HA Konfiguration
  • prod-web01 - Webserver
  • prod-psql01 - Postgresql Datenbankserver / HA Konfiguration
  • test-??? - diverse Testsysteme für FHEM und mehr


Netzwerk design
Das Netzwerk soll insgesamt flacher werden. Damit gehe ich dann auch den Problemen des Multicast routing über Subnetze hinaus aus dem Weg.
  • Usernetzwerk - hier kommt alles rein was nicht explizit Serverfunktionalitäten hat. GHome, Mediageräte, Haushaltsgeräte, Tablets, Notebooks und und und
  • Servernetzwerk - Hier kommen alle Server mit entsprechenden Diensten rein
  • Proxmox Cluster Netzwerk - ist ein Sondernetzwerk nur für die Proxmoxcluster Funktionalität
  • Ceph Stotage Clusternetzwerk - Für das angedachte Ceph Storage Cluster
  • DMZ Netzwerk - für VPN, extern erreichbare Webdienste



Aufbau der Laborumgebung für den Proxmox Cluster
Da ich nicht ohne weiteres meine derzeitige Konfiguration einreißen kann, muß zu aller erst ein Laboraufbau her.
Dieser Aufbau wird später 1 zu 1 in die Produktive Umgebung übertragen.
  • 5x kleine Tischrechner mit vcore i7 8x2.1GHz, 16GB Ram, 250GB SSD
  • 1x 8fach managed Switch mit VLAN und Jumboframe Unterstützung
« Letzte Änderung: 03 Februar 2020, 14:11:08 von CoolTux »
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Proxmox Virtualisierungs Cluster
« Antwort #1 am: 30 Mai 2018, 08:50:55 »
Proxmox Virtualisierungs Cluster - Installation und Konfiguration

Proxmox Virtualisierungs Cluster - Installation
Ich habe mir über die Proxmox Seite den aktuellen Proxmox VE 5.2 ISO Installer runter geladen und diesen dann mittels
dd if=proxmox-ve_5.2-1.iso of=/dev/sdb bs=1M
auf einen USB Stick als USB Image geladen.

Damit wurden dann alle 5 Rechner mit Proxmox installiert. Bei der Festplattenbelegung sollte man ein wenig Gehirnschmalz investieren, da ich ja noch eine maximal möglich Partition für das Ceph benötige. Daher habe ich folgende Möglichkeit gewählt.
In der Festplatten und Partitionsübersicht habe ich zu erst einmal die Größe der zu verwenden Festplatte verkleinert. Hier wird immer die gesamte Kapazität an gezeigt. Diese habe ich folgender Maßen beschränkt:
Für die Node 1 und die Node5 habe ich wegen der ISO Images Ablage
48 GB gesamte Festplattenkapazität gewählt, diese wurde dann unterteilt
swapsize 8GB
maxroot 40GB
minfree 2GB
maxvz 0GB da wir ja Ceph machen wollen

Für die anderen Knoten des Clusters habe ich
18 GB gesamte Festplattenkapazität gewählt, diese wurde dann unterteilt
swapsize 8GB
maxroot 10GB
minfree 1GB
maxvz 0GB da wir ja Ceph machen wollen

Damit habe ich, so hoffe ich, das maximalste an Plattenkapazität für das Ceph rausgeschlagen.
Der Rest der Installation ist selbsterklärend.

Zum Abschluss empfiehlt es sich immer ein Update jeder Node durch zu führen
apt-get update
apt-get dist-upgrade



Proxmox Virtualisierungs Cluster - Konfiguration
Leider habe ich in meinen Rechnern immer nur eine Netzwerkkarte. Damit ich dennoch den Datenverkehr etwas trennen kann, habe ich mich entschieden unterschiedliche VLANs zu erstellen.
Ich benötige dem zu Folge 2 VLANs für Proxmoxcluster und Cephcluster. Diese erstelle ich von Hand in der /etc/network/interfaces
Beispielkonfiguration:
auto lo
iface lo inet loopback
 
iface eno1 inet manual
 
auto vmbr0
iface vmbr0 inet static
        address 192.168.179.6
        netmask 255.255.255.0
        gateway 192.168.179.1
        bridge_ports eno1
        bridge_stp off
        bridge_fd 0
 
 
 
# corosync cluster network
auto eno1.31
iface eno1.31 inet static
        address 192.168.31.5
        netmask 255.255.255.0
 
 
 
# ceph storage cluster network
auto eno1.32
iface eno1.32 inet static
        address 192.168.32.5
        netmask 255.255.255.0

Nach einem beherzten ifup eno1.31 und ifup eno1.32 stehen mir die Interfaces zur Verfügung und spätestens nach dem zweiten Server kann ich schon mal einen ping zum ersten Server über die IP-Adressen testen.
Wenn das Netzwerk soweit eingerichtet ist, geht es um die Namensauflösung. Damit alle Nodes gleich sind und ich mit unterschiedlichen Namen für die entsprechenden Netze arbeiten kann, habe ich auf jeder Node die /etc/hosts von Hand angepasst.
/etc/hosts
127.0.0.1 localhost.localdomain localhost
192.168.179.5 n1-pve-cluster.tuxnet.local n1-pve-cluster pvelocalhost
192.168.179.6 n2-pve-cluster.tuxnet.local n2-pve-cluster
192.168.179.7 n3-pve-cluster.tuxnet.local n3-pve-cluster
192.168.179.8 n4-pve-cluster.tuxnet.local n4-pve-cluster
192.168.179.9 n5-pve-cluster.tuxnet.local n5-pve-cluster
 
 
 
# corosync cluster network
192.168.32.5 n1-corosync-cluster.tuxnet.local n1-corosync-cluster
192.168.32.6 n2-corosync-cluster.tuxnet.local n2-corosync-cluster
192.168.32.7 n3-corosync-cluster.tuxnet.local n3-corosync-cluster
192.168.32.8 n4-corosync-cluster.tuxnet.local n4-corosync-cluster
192.168.32.9 n5-corosync-cluster.tuxnet.local n5-corosync-cluster
 
 
 
# ceph storage cluster network
192.168.33.5 n1-ceph-cluster.tuxnet.local n1-ceph-cluster
192.168.33.6 n2-ceph-cluster.tuxnet.local n2-ceph-cluster
192.168.33.7 n3-ceph-cluster.tuxnet.local n3-ceph-cluster
192.168.33.8 n4-ceph-cluster.tuxnet.local n4-ceph-cluster
192.168.33.9 n5-ceph-cluster.tuxnet.local n5-ceph-cluster
Corosync ist dabei der Cluster für Proxmox.

Zum Abschluss meiner Vorbereitungen empfiehlt es sich einen Zeitsynchronisierungsdienst zu installieren. Debian bietet hier das ntp Packet an
apt-get install ntp
Die Konfiguration des ntp Dienstes kann man nach belieben anpassen.

Die Vorbereitungen sind nun abgeschlossen und ich kann mit dem erstellen des Proxmox Clusters beginnen.

Dazu gehen wir auf eine Node, ich nehme immer die erste und erstelle dort den Proxmox Cluster, welcher aber an das entsprechende VLAN gebunden sein soll.
pvecm create <clustername> -bindnet0_addr <ip-node> -ring0_addr <hostname-coro-cluster>
Der Clustername darf nicht länger wie 15 Zeichen sein und natürlich keine Sonderzeichen beinhalten. <ip-node> ist die IP Adressen der aktuellen Node auf der ich mich befinde. <hostname-coro-cluster> ist der hostname der Node so wie ich ihn in der /etc/hosts eingetragen habe.
Beispiel:
pvecm create PVE01-CLUSTER -bindnet0_addr 192.168.32.5 -ring0_addr n1-corosync-cluster

Im Anschluss starte ich die Clusterdienste einmal durch
root@n1-pve-cluster:~# systemctl restart corosync.service
root@n1-pve-cluster:~# systemctl restart pve-cluster.service
root@n1-pve-cluster:~# systemctl restart pvedaemon.service
root@n1-pve-cluster:~# systemctl restart pveproxy.service

Den Status meines Clusters kann ich mir mit
pvecm status
ausgeben lassen.

Zum Abschluss muß ich nur noch alle anderen Nodes in den vorhandenen Cluster einbinden
pvecm add 192.168.32.5 -ring0_addr n2-corosync-cluster
192.168.32.5 ist die IP eines Clustermembers, da ich erst einen habe beim erstmaligen hinzufügen gebe ich also meinen Master dafür an. -ring0_addr ist der hostname der Node welche ich hinzufügen möchte.

Fertig, das war es auch schon. Nun kann ich mich das erste mal im Web Gui anmelden und mir mein Cluster in aller Schöhnheit anschauen  ;D
« Letzte Änderung: 30 Mai 2018, 14:46:09 von CoolTux »
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Projekt 2018: Ceph Storage Cluster
« Antwort #2 am: 30 Mai 2018, 08:51:17 »
Ceph Storage Cluster - Installation und Konfiguration

Warum?
Da ich schon 5 Rechner wegen des Virtualisierungsclusters zu stehen habe, wollte ich nicht noch eine weitere Box als Storage hinstellen. So langsam mache ich mir dann auch Gedanken um die Stabilität meiner Zwischendecke.
Auf der Suche nach einer Proxmox kompatiblen Lösung (damit ich die VMs mit HA Fähigkeit anlegen kann) stieß ich auf das verteilte Netzwerkstorage System Ceph. Zu meinem Glück unterstützt Proxmox das sogar von Hause aus.


Ceph Storage Cluster - Installation
Für private Anwender ohne Lizens ist derzeit die Version luminous installierbar. Ich installiere somit also auf jeder Node das aktuelle ceph
pveceph install --version luminous

Den noch freien Speicherplatz der SSDs auf allen Nodes weise ich einer Partition zu. Als Partitionstype nehme ceph-osd.
cfdisk /dev/sda

Danach muss ich jede Node nacheinander neu starten.


Ceph Storage Cluster - Konfiguration

Ceph Partitionenunterstützung nur mit Trick 17
Die folgende Anleitung muß auf jeder Node meines zukünftigen ceph Clusters durchgeführt werden.
Das Ceph von Proxmox unterstützt leider keine Partitionen, hier kann man über das Web Gui lediglich komplette Festplatten angeben. Da ich aber keine weitere Platte anschließen kann und ich nun eine Partition sda4 habe möchte ich diese auch gerne verwenden. Dafür die Vorbereitung mit cfdisk. Weiterhin muß ich nun ein wenig in den Perlcode des Projektes eindringen und kleine Änderungen vornehmen.
Ich editieren die Datei /usr/share/perl5/PVE/API2/Ceph.pm
Ich suche nach der Zeile
$devname =~ s|/dev/||;
und kommentiere die und folgende Zeilen aus bis zur Zeile
my $devpath = $diskinfo->{devpath};
Diese Zeile Ändere ich um in
my $devpath = $devname;

Etwas weiter unten in der selben Datei finde ich noch die Zeile
my $cmd = ['ceph-disk', 'prepare', '--zap-disk',
...
Die Ändere ich folgender Maßen
my $cmd = ['ceph-disk', 'prepare',
...

Fertig. Ich starte den pvedaemon Dienst neu
systemctl restart pvedaemon

Meine Vorbereitungen zum verwenden einer Partition für ceph sind damit abgeschlossen und ich kann mein ceph nun fertig konfigurieren.


Ich initiiere auf einer der Nodes des ceph Cluster für mein Ceph Storage Cluster Netzwerk mit
pveceph init --network 192.168.32.0/24

Und erstelle dann auf jeder Node einen Ceph Monitor
pveceph createmon

Im Anschluss erstelle ich auf jeder Node einen OSD welcher die Partition /dev/sda4 bekommt und ohne bluestore Support (Also Filestore only) daherkommt. Filestore beötige ich da bei Partitionen bluestore nur maximal 10GB nimmt.
pveceph createosd /dev/sda4 –bluestore 0
Damit die ODS's nun auch sichtbar werden und verwendet werden können, muss ich sie noch aktivieren
cephdisk activate /dev/sda4


FERTIG!
Das war es auch schon. Nun sehe ich im Web Gui unter jeder Node im Ceph Bereich alle OSD's der Nodes und kann dann unter pool Pool anlegen.
« Letzte Änderung: 30 Mai 2018, 14:59:41 von CoolTux »
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Was habe ich bis jetzt geschafft? Ich habe mir eine Cluster Virtualisierungslösung samt Storage Cluster aufgebaut. Im Web Gui sieht das ganze dann aus wie unten auf dem Screenshot.
Ich habe also insgesamt zur Verfügung
  • 40 CPUs
  • 77 GB Hautspeicher
  • 1.35 TByte Speicherkapazität

Auf Basis dieser Virtualisierungsumgebung kann ich nun beginnen meine ersten Server auf zu setzen und zu konfigurieren.
Platz sollte für circa 15 Maschinen sein. Ich benötige für 2 Maschinen alleine schon jeweils 2x2 CPUs und 8GB Ram. Dazu jeweils 150GB Storage. Andere Maschinen fallen dafür kleiner aus. FHEM brauch ja nicht soooo viel  ;)
« Letzte Änderung: 03 Oktober 2018, 21:08:03 von CoolTux »
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Antw:Projekt 2018: virtuelle Maschinen
« Antwort #4 am: 30 Mai 2018, 15:03:05 »
Eine Firewall muß her - pfsense natürlich im HA Clustermode

Nach dem ich nun erfolgreich meine Virtualisierungslösung am  laufen habe und auch schon zum spielen das ein oder andere System installiert habe, wird es Zeit sich Gedanken um den produktiven Betrieb zu machen.
Aktuell habe ich eine Fritzbox als Verbindung zum Internet. Netzwerktechnisch kann man sagen sie steht in einer DMZ. Dies soll auch so bleiben und so wie jetzt soll danach sofort eine Firewall kommen.
Da ich nun alles virtualisiere habe ich gerade bei der Firewall eine freie Auswahl. Ich habe mich nach einigen Tests zwischen IPFire und pfsense für pfsense in der Community Edition entschieden.
Aktuell gibt es die Version 2.4.3. Die 2.4er Entwicklung befindet sich im Auslauf und wird in absehbarer Zeit von der 2.5er Version abgelöst. Hier gibt es eine große Änderung, wer diese Version einsetzen möchte dessen CPU muß zwingend AES-NI können. Sonst läuft gar nichts.


pfsense - die Installation
pfsense ist in der Community Edition Lizenskostenfrei einsetzbar. Hierfür einfach das entsprechende ISO File runterladen und auf einem Proxmoxstorage zur Verfügung stellen.
Ich habe vor 2 pfsense Server zu installieren, welche dann später im HA Betrieb laufen sollen. Ich lege mir also schon mal 2 virtuelle Maschinen an. p-fw01 und p-fw02. Für die Hardware reichen vorerst kleine Brötchen. Also nehme ich als CPU 1 Socket 2 Cores und ganz wichtig für AES-NI wähle ich als CPU Haswell-noTSX (das ist meine tatsächliche CPU im Proxmox Host). Hauptspeicher 2GB und 15GB an Storage. Für einen reibungslosen HA Betrieb mit Virtuellen IP Adressen empfiehlt Netgate in seinem HA Dokument für KVM+QEMU als Netzwerkkarte die e1000 zu nehmen. Da ich vor habe mein Netzwerk insgesamt etwas flacher zu gestallten lege ich vorerst 5 Netzwerkkarten an.
  • DMZ Zone, also die Verbindung zur Fritzbox und somit zum Internet
  • Management Netz - VLAN
  • Server Netz - VLAN
  • User Netz
  • Smart Home und Multimedia Netz

Nach dem erstellen der virtuellen Maschinen wird das pfsense ISO in eine eingehängt und gestartet. Die Installation geht schnell von der Hand wenn man sich vorher etwas in den Install Guide eingelesen hat.
Man sollte sich definitiv vorher intensiv Gedanken machen wie genau sein Netz aufgebaut und abgesichert sein soll. Die erste Netzwerkkarte ist das WAN Netz, also die Verbindung in die DMZ (Fritzbox). Die zweite Netzwerkkarte richte ich als LAN ein (interne Verbindung) und zwar als erstes das Management Netzwerk.
Nach der erfolgreichen Installation und dem zuweisen der ersten beiden Netze erfolgt die weiterführende Konfiguration mit Hilfe eines Wizards. Danach kann man sich über die Weboberfläche anmelden.


pfsense - eigene PKI mit RootCA und IntermediateCA
Alle meine Dienste sollen ihre interne Kommunikation verschlüsselt durchführen. Damit dies sauber gewährleistet ist, empfiehlt es sich seine eigene PKI auf zu bauen und somit eine Vertrauenskette über alle erstellten Zertifikate zu haben.
Dazu wird als erstes ein RootCA (Zertifikat) über die Weboberfläche von pfsense erstellt. Danach erstellen wir ein Intermediate RootCA und zeichnen dieses mit Hilfe unseres RootCA gegen. Damit haben wir nun 2 Zertifikate. In Zukunft werden wir alle folgenden Zertifikate mit dem Intermediate RootCA gegenzeichen. Sollte unser Intermediate RootCA einmal kompromittiert sein, können wir alle damit ausgestellten Zertifikate zurück ziehen und das Intermediate RootCA löschen. Wir haben aber dann immer noch unsere RootCA auf der wir neu aufbauen können.
Da rootCa exportieren wir uns und fügen es in all unseren Browsern oder Handys an vertrauliche Zertifizierungsstelle ein. Damit bekommen wir nun immer ein schönes grünes Schloß in unseren Browsern.
Zum administrieren von pfSense wird ein Webinterface verwendet. Dafür legen wir nun als erstes ein Server Zertifikat an.

... Under Construction
« Letzte Änderung: 01 Oktober 2018, 11:08:33 von CoolTux »
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Platzhalter

....
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Platzhalter

...
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline sku

  • Full Member
  • ***
  • Beiträge: 103
hört sich spannend an. was ist der vorteil eines clusters? ausfallsicherheit? leichtere wartbarkeit? beides? mehr power?

Offline Prof. Dr. Peter Henning

  • Developer
  • Hero Member
  • ****
  • Beiträge: 7299
Im Winter braucht man dann auch keine Heizung mehr.  8)

LG

pah
Gefällt mir Gefällt mir x 2 Liste anzeigen

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
hört sich spannend an. was ist der vorteil eines clusters? ausfallsicherheit? leichtere wartbarkeit? beides? mehr power?
Auf jeden Fall leichtere Wartbarkeit der Hosts da ich die virtuellen Maschinen einfach schwenken kann auf eine andere Note. Ausfallsicherheit, da bis zu 2 Notwendig ohne Sorge drauf gehen können.
Und in meinem Fall auch mehr Power. Man kann sich auch Blech in Form von Herrn 19zoll Pizza Schachtel hinstellen, 192 GB RAM reinstecken und 6 Xeon CPUs mit 8 Kernen. Aber das macht Lärm, kostet enorm Strom und nimmt Platz. Dann lieber so.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Im Winter braucht man dann auch keine Heizung mehr.  8)

LG

pah

Nicht wirklich. Das sind kleine Tischfeuerwerke, doppelt so gross wie ein Netzwerk  Tischswitch. Wenn 1 oder 2 an sind hört man gar nichts, bei allen 5 ist ein leichtes brummen aus der Ecke zu vernehmen. Leider wie ein kühlender Kühlschrank. Ich will bei Gelegenheit Mal ein Zwischenstecker von Homematic mit Energiemessung anklemmen. Bin gespannt.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Habe gestern mal den Zwischenstecker an gebracht. Der Verbrauch lag im Schnitt bei 100W. Sind auf das Jahr gerechnet in Euro um die 300 Euro. Ich kann damit leben.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline sku

  • Full Member
  • ***
  • Beiträge: 103
Auf jeden Fall leichtere Wartbarkeit der Hosts da ich die virtuellen Maschinen einfach schwenken kann auf eine andere Note. Ausfallsicherheit, da bis zu 2 Notwendig ohne Sorge drauf gehen können.
Und in meinem Fall auch mehr Power. Man kann sich auch Blech in Form von Herrn 19zoll Pizza Schachtel hinstellen, 192 GB RAM reinstecken und 6 Xeon CPUs mit 8 Kernen. Aber das macht Lärm, kostet enorm Strom und nimmt Platz. Dann lieber so.

also laufen die vm nicht auf allen nodes und wenn einer ausfällt läuft alles weiter wie bei einem raid5? wird mit gbit LAN auch nicht möglich sein nehme ich an?

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Eine VM kann immer nur auf einer Node laufen. Du kannst bei einem Ausfall oder bei Wartung aber ohne Probleme auf eine andere Node schwenken (migrieren).
Das HA bezieht sich hier auch nur darauf das wenn Du normal migrierst Du es live machen kannst. Wenn Du tatsächlichen Service HA willst brauchst zwei VM's für den Dienst.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

Offline CoolTux

  • Developer
  • Hero Member
  • ****
  • Beiträge: 25291
Antw:Projekt 2018: Virtualisierungscluster mit Proxmox und Netzwerk redesign
« Antwort #14 am: 21 September 2018, 21:36:06 »
Es gibt doch tatsächlich etwas neues zu berichten. Ich bin endlich dazu gekommen meine USB Dongle zu testen. Sowohl der signalDuino als auch mein RFXtrx laufen in einem lx Container ohne Probleme.
Nur Bluetooth geht leider nicht. Da muss ich mir noch was einfallen lassen.
Du musst nicht wissen wie es geht! Du musst nur wissen wo es steht, wie es geht.
Support me to buy new test hardware for development: https://paypal.me/pools/c/8gULisr9BT
My FHEM Git: https://git.cooltux.net/FHEM/
Mein Dokuwiki:
https://www.cooltux.net

 

decade-submarginal