Intern:Ora: Unterschied zwischen den Versionen
MLp (Diskussion | Beiträge) |
MLp (Diskussion | Beiträge) |
||
Zeile 174: | Zeile 174: | ||
Proxmox-Newspage and lookup the differences of an new version | Proxmox-Newspage and lookup the differences of an new version | ||
Zusätzlich werden hier Videos zu größeren Versionen veröffentlicht - [Proxmox Training Videos](https://www.proxmox.com/en/news) | |||
Once you are sure everything will be fine go back to your Proxmox Browser Tab | Once you are sure everything will be fine go back to your Proxmox Browser Tab |
Version vom 3. Dezember 2021, 23:17 Uhr
Ora ist ein Projekt zur Server/Aktualisierung/2019. Ora soll ein Verbund (Cluster) von Servern, maßgeblich betrieben mit Proxmox VE, sein. Es handelt sich vorerst um einen Test für die Server/Aktualisierung/2019. Wenn der Test zufriedenstellend verläuft, soll hierdurch der gesamte Betrieb zu Servern realisiert werden.
Test
Grundsätzlich soll ein möglichst ausfallsicherer Verbund an Servern mit Proxmox VE getestet werden.
Getestet werden soll:
- Datensicherung
- Replikation
- …
- Ausfallüberbrückung
- …
Test Ceph
rados bench
https://tracker.ceph.com/projects/ceph/wiki/Benchmark_Ceph_Cluster_Performance
Geräte
Funktion | Gerät | Betriebssystem | |
---|---|---|---|
Switch (intern 1) | HP ProCurve 2810-48G | Firmware | |
Switch (intern 1) | Cisco SG200#Cisco SG200-50 | Firmware | |
Switch (extern 0) | Cisco SRW20#Cisco SRW20240 | Firmware | Cisco SRW20#Cisco SRW20241 (gleichwertiges Gerät als möglicher Ersatz in der Nähe liegend) |
Switch (extern 1) | Cisco SG200#Cisco SG200-26 | Firmware | |
Router/Firewall 0 | Dell PowerEdge R210#srs2110 | pfSense | |
Router/Firewall 1 | Dell PowerEdge R210#srs2111 | pfSense | |
Hypervisor 1 | Dell PowerEdge R510#srs5100 | Proxmox Virtual Environment | |
Hypervisor 2 | Dell PowerEdge R510#srs5110 | Proxmox Virtual Environment | |
Hypervisor 3 | Dell PowerEdge R510#srs5111 | Proxmox Virtual Environment | |
(Test) Backup 1 | Maschine/nux (srs100026) | Proxmox Backup Server |
Geräte Ersatz
Geräte Ersatz Massenspeicher
Wir haben selbstverständlich "irgendwie" Zugriff auch viel mehr Geräte für Massenspeicher. Nachfolgend werden nur Geräte benannt, die "ohnehin" eigentlich dazu passend bereit liegen.
Seagate Constellation ES.2 2TB, SATA 6Gb/s (ST32000645NS)- 2021-10-03 zum Ersatz bei n3 von OSD.4 (/dev/sdc/) verbaut
- Seagate Constellation ES.2 2TB, SATA 6Gb/s (ST32000645NS)
- Seagate Constellation ES 2TB, SATA 6Gb/s (ST2000NM0011)
- Seagate Constellation ES 2TB, SATA 6Gb/s (ST1000$$$$$$)
Speicher
Speicher local
Speicher local-zfs
Speicher cephfs
CephFS (PVE)
Speicher storage
RBD (PVE)
Pakete
zusätzlich installierte Pakete
pve-headers
Es soll in (mehr als) einem Container Kubernetes betrieben werden.[1]
Standardmäßig sind die Dateien der Header (für C) vom Kernel nicht installiert. (Grundsätzlich braucht es die Dateien auch nicht, da der Kernel nicht kompiliert werden muss, sondern einfach als Kompilat installiert und aktualisiert wird.) Aber mutmaßlich braucht Kubernetes Informationen aus den Dateien, um für sich Entscheidungen zu treffen.
apt -y install pve-headers
Setting up pve-headers-5.4.106-1-pve (5.4.106-1) ... Setting up pve-headers-5.4 (6.3-8) ... Setting up pve-headers (6.3-1) ...
apt list pve-headers-$(uname -r)
Listing... Done pve-headers-5.4.106-1-pve/stable,now 5.4.106-1 amd64 [installed,automatic]
ls /usr/src/ | grep headers
linux-headers-5.4.106-1-pve
Konfiguration
Konfiguration Ceph
Konfiguration Ceph auth_allow_insecure_global_id_reclaim
Bei Datacenter -> Ceph wird beim Status HEALTH_WARN (gelb) angegeben.
- Proxmox 6.4.8
- Ceph 14.2.20
Bei Summary gibt es den Hinweis
mons are allowing insecure global_id reclaim
.
https://pve.proxmox.com/wiki/Ceph_Luminous_to_Nautilus#Addressing_the_Health_Warnings
manuelles Setzen der Einstellung auth_allow_insecure_global_id_reclaim, dass kein schädlichen Erlauben der Unsicherheit möglich sein soll
ceph config set mon auth_allow_insecure_global_id_reclaim false
Bei Datacenter -> Ceph wird beim Status HEALTH_OK (grün) angegeben.
Läuft!
Aktualisierung
Step 1 : Check, ob updates vorhanden sind
Klicke auf die Proxmox Node und dann auf den Tab "Update" Klicke auf "Refresh" in der oberen linken Ecke (-> führt ein apt-update aus) Schaue auf die neu dazugekommenen Pakete und kontrolliere auf Unterschiede
Besonders:
-- Origin OS(Debian): -- Origin Proxmox: pve-kernel & pve-manager
Step 2: Checke, die Unterschiede zwischen aktueller und neuer Version
Go to :
Proxmox-Newspage and lookup the differences of an new version
Zusätzlich werden hier Videos zu größeren Versionen veröffentlicht - [Proxmox Training Videos](https://www.proxmox.com/en/news)
Once you are sure everything will be fine go back to your Proxmox Browser Tab Move every active CT/VM away from the node you want to upgrade
-- Use: Right-Click on < ID > CT/VM then click on Migrate. Select a different node and accept to move your CT/VM and click accept
Step 3: Upgrade & Lookup if everything is fine
Once you have moved every active CT/VM go back to the "Update Tab" again an hit upgrade A new window will pop up assuming you to press [Y/n] to ensure you want to upgrade. Press ENTER oder Y to continue (similar to apt upgrade) Once upgrade is done - Reboot your node by clicking on node-> Reboot in the upper right corner When reboot is finished StuRa Wiki - Proxmox/Cluster Within the Topic "Containerisierung für Proxmox Mail Gateway" you can find needed checkups if everything is running correctly So perform a:
pveam update
pveam available --section mail
pveam download
pveam download cephfs proxmox-mailgateway-<VERSION NUMBER>-standard_<VERSION NUMBER>_amd64.tar.gz
To have a look on your node and ongoing processes might be afforable
top htop
Siehe auch
- vorheriger Ansatz Intern:Cluster/xora