Server/b1: Unterschied zwischen den Versionen
(→Gerät) |
|||
(24 dazwischenliegende Versionen von 4 Benutzern werden nicht angezeigt) | |||
Zeile 1: | Zeile 1: | ||
== | == Betriebssystem == | ||
; | ; Proxmox Backup Server: | ||
Dokumentation mangelhaft (siehe https://pro.stura.htw-dresden.de/issues/1828) | |||
Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. Es wird als Dateisystem ZFS verwendet. | |||
=== | === Installation PBS === | ||
== | == Administration == | ||
=== Storage === | |||
==== Storage allgemein ==== | |||
Konfiguration des Pools | |||
: <code>zpool status</code> | |||
<pre> | |||
pool: backup | |||
state: ONLINE | |||
scan: scrub in progress since Sun Dec 10 00:24:03 2023 | |||
3.33T scanned at 0B/s, 1.42T issued at 255M/s, 3.34T total | |||
0B repaired, 42.51% done, 02:11:35 to go | |||
config: | |||
NAME STATE READ WRITE CKSUM | |||
backup ONLINE 0 0 0 | |||
raidz1-0 ONLINE 0 0 0 | |||
wwn-0x5000cca25e489938 ONLINE 0 0 0 | |||
wwn-0x5000cca25e2f69b0 ONLINE 0 0 0 | |||
wwn-0x5000cca25e49eb1c ONLINE 0 0 0 | |||
wwn-0x5000cca25e463d14 ONLINE 0 0 0 | |||
errors: No known data errors | |||
pool: rpool | |||
state: ONLINE | |||
scan: scrub repaired 0B in 00:13:11 with 0 errors on Sun Dec 10 00:37:16 2023 | |||
config: | |||
NAME STATE READ WRITE CKSUM | |||
rpool ONLINE 0 0 0 | |||
mirror-0 ONLINE 0 0 0 | |||
ata-ST2000NM0011_Z1P2XPCP-part3 ONLINE 0 0 0 | |||
ata-ST32000645NS_Z1K0PDJP-part3 ONLINE 0 0 0 | |||
errors: No known data errors | |||
</pre> | |||
: <code>zfs list</code> | |||
<pre> | |||
NAME USED AVAIL REFER MOUNTPOINT | |||
backup 2.42T 2.73T 2.42T /mnt/datastore/backup | |||
rpool 11.1G 1.75T 96K /rpool | |||
rpool/ROOT 11.0G 1.75T 96K /rpool/ROOT | |||
rpool/ROOT/pbs-1 11.0G 1.75T 11.0G / | |||
</pre> | |||
Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. | |||
https://pro.stura.htw-dresden.de/issues/791 | |||
-- Reinstall | |||
https://pro.stura.htw-dresden.de/issues/1140 | |||
https://pro.stura.htw-dresden.de/issues/1187 | |||
https://pro.stura.htw-dresden.de/issues/1723 | |||
=== Pools für ZFS === | |||
==== | ==== Pool für das Betriebssystem ==== | ||
==== Pool rpool ==== | |||
Bei der Installation (vom [[#Betriebssystem]] PBS) kann die Installation vom System auf dem Dateisystem ZFS ausgewählt werden. Bei der Installation wird dann schon gleich der Pool für ZFS ''rpool'' (standardmäßige Bezeichnung) erstellt. Im Pool für ZFS ''rpool'' liegen dann die Daten für das [[#Betriebssystem]] selbst, also nicht schon die Daten für Datensicherungen (''Storage'' für ''Datastore''). | |||
==== Pool für die Datensicherungen ==== | |||
==== Pool backup ==== | |||
===== | |||
Nach der Installation (vom [[#Betriebssystem]] PBS) muss - wenn das Dateisystem ZFS für den Speicher von Datensicherungen verwendet werden soll - ein Pool (neben dem womöglich schon bestehenden [[#Pool für das Betriebssystem]]) erstellt werden. | |||
Bei der selbst festzulegenden Bezeichnung vom Pool für ZFS wurde ''backup'' gewählt. | |||
Bei der festzulegenden Art von Redundanz vom Pool für ZFS wurde RAIDZ für ZFS gewählt. | |||
; Administration | |||
:; Storage / Disks | |||
::; ZFS: | |||
:::; Create<nowiki>:</nowiki> ZFS: | |||
::::; Name: ''backup'' | |||
::::; Add as Datastore: X (Voreinstellung) | |||
::::; RAID Level: <code>RAIDZ</code> | |||
::::; Compression: <code>on</code> (Voreinstellung) | |||
::::; ashift: ''12'' (Voreinstellung) | |||
=== | === Datasets für ZFS === | ||
==== manuell erstellte Datasets für ZFS ==== | |||
===== | ===== Erstellung von manuell erstellten Datasets für ZFS ===== | ||
[[user:goeranh]] meinte 2023-12-22, dass bei alle Datasets für ZFS, die nicht durch das [[#Betriebssystem]] ([[PBS]]) verwaltet werden, für die Eigenschaft beim Schlüssel '''mountpoint'' der Wert ''legacy'' gesetzt werden soll, weil das Dataset für ZFS nicht in das System eingehängt wird, denn ansonsten gibt das System Fehler aus, da es bei der wiederkehren Aufgabe zum Entfernen von nicht mehr benötigten Stände (Snapshots für ZFS) unzureichende Berechtigungen bei den (manuell) erstellten Datasets für ZFS hat. | |||
= | Setzen der Eigenschaft vom Schlüssel <tt>mountpoint</tt> auf den Wert <tt>legacy</tt> (bei einem beispielhaften Dataset ''dataset'' (vom Pool ''pool'')) | ||
: <code>zfs set mountpoint=legacy pool/dataset</code> | |||
===== einzelne manuell erstellte Datasets für ZFS ===== | |||
==== | ====== Datasets für ZFS für die Datensicherung von der Website ====== | ||
Die Daten der [[Website]] (aka [[Plone]]) sollen gesichert werden. | |||
<pre> | |||
backup/plone | |||
backup/plone/jails | |||
backup/plone/jails/plone | |||
backup/plone/website | |||
backup/plone/website/plone | |||
backup/plone/website/plone/var | |||
backup/plone/website/plone/var/blobstorage | |||
backup/plone/website/plone/var/filestorage | |||
</pre> | |||
== | == Konfiguration == | ||
=== zusätzlich installierte Pakete === | |||
; | ; Zusammenfassung: | ||
: <code>apt -y install parted tmux vim micro lshw htop iperf3 iotop iftop lm-sensors</code> | |||
Zusätzlich installierte Pakete sind: | |||
* Verwaltung der Partitionierung von Geräten für Massenspeicher (beispielsweise notwendig, um Geräte einfach "zu plätten" die bereits mit dem Dateisystem ZFS verwendet wurden) | |||
*: parted | |||
* Multiplexer (, der beim Bereich Administration Rechentechnik üblich ist) | |||
*: tmux | |||
* Editor, den mindestens goeranh haben mag | |||
*: vim | |||
* Editor, den mindestens offbyone haben mag | |||
*: micro | |||
* für die Unterstützung zur Inventarisierung von Hardware | |||
*: lshw | |||
* Werkzeuge zur Beobachtung vom System | |||
*: htop | |||
*: iperf3 | |||
*: iotop | |||
*: iftop | |||
*: lm-sensors | |||
== Siehe auch == | == Siehe auch == | ||
Zeile 221: | Zeile 151: | ||
** [[Server/srs3006]] | ** [[Server/srs3006]] | ||
** [[Server/srs3007]] (mögliche Geschwister) | ** [[Server/srs3007]] (mögliche Geschwister) | ||
* [[Maschine/nax]] | |||
[[Kategorie:Server]] | [[Kategorie:Server]] | ||
[[Kategorie:Software]] | [[Kategorie:Software]] | ||
[[Kategorie:Rechentechnik]] | [[Kategorie:Rechentechnik]] |
Aktuelle Version vom 22. Dezember 2023, 11:34 Uhr
Betriebssystem[Bearbeiten]
- Proxmox Backup Server
Dokumentation mangelhaft (siehe https://pro.stura.htw-dresden.de/issues/1828)
Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. Es wird als Dateisystem ZFS verwendet.
Installation PBS[Bearbeiten]
Administration[Bearbeiten]
Storage[Bearbeiten]
Storage allgemein[Bearbeiten]
Konfiguration des Pools
zpool status
pool: backup state: ONLINE scan: scrub in progress since Sun Dec 10 00:24:03 2023 3.33T scanned at 0B/s, 1.42T issued at 255M/s, 3.34T total 0B repaired, 42.51% done, 02:11:35 to go config: NAME STATE READ WRITE CKSUM backup ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 wwn-0x5000cca25e489938 ONLINE 0 0 0 wwn-0x5000cca25e2f69b0 ONLINE 0 0 0 wwn-0x5000cca25e49eb1c ONLINE 0 0 0 wwn-0x5000cca25e463d14 ONLINE 0 0 0 errors: No known data errors pool: rpool state: ONLINE scan: scrub repaired 0B in 00:13:11 with 0 errors on Sun Dec 10 00:37:16 2023 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ata-ST2000NM0011_Z1P2XPCP-part3 ONLINE 0 0 0 ata-ST32000645NS_Z1K0PDJP-part3 ONLINE 0 0 0 errors: No known data errors
zfs list
NAME USED AVAIL REFER MOUNTPOINT backup 2.42T 2.73T 2.42T /mnt/datastore/backup rpool 11.1G 1.75T 96K /rpool rpool/ROOT 11.0G 1.75T 96K /rpool/ROOT rpool/ROOT/pbs-1 11.0G 1.75T 11.0G /
Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE.
https://pro.stura.htw-dresden.de/issues/791 -- Reinstall https://pro.stura.htw-dresden.de/issues/1140 https://pro.stura.htw-dresden.de/issues/1187 https://pro.stura.htw-dresden.de/issues/1723
Pools für ZFS[Bearbeiten]
Pool für das Betriebssystem[Bearbeiten]
Pool rpool[Bearbeiten]
Bei der Installation (vom #Betriebssystem PBS) kann die Installation vom System auf dem Dateisystem ZFS ausgewählt werden. Bei der Installation wird dann schon gleich der Pool für ZFS rpool (standardmäßige Bezeichnung) erstellt. Im Pool für ZFS rpool liegen dann die Daten für das #Betriebssystem selbst, also nicht schon die Daten für Datensicherungen (Storage für Datastore).
Pool für die Datensicherungen[Bearbeiten]
Pool backup[Bearbeiten]
Nach der Installation (vom #Betriebssystem PBS) muss - wenn das Dateisystem ZFS für den Speicher von Datensicherungen verwendet werden soll - ein Pool (neben dem womöglich schon bestehenden #Pool für das Betriebssystem) erstellt werden.
Bei der selbst festzulegenden Bezeichnung vom Pool für ZFS wurde backup gewählt. Bei der festzulegenden Art von Redundanz vom Pool für ZFS wurde RAIDZ für ZFS gewählt.
- Administration
-
- Storage / Disks
-
- ZFS
-
- Create: ZFS
-
- Name
- backup
- Add as Datastore
- X (Voreinstellung)
- RAID Level
RAIDZ
- Compression
on
(Voreinstellung)- ashift
- 12 (Voreinstellung)
Datasets für ZFS[Bearbeiten]
manuell erstellte Datasets für ZFS[Bearbeiten]
Erstellung von manuell erstellten Datasets für ZFS[Bearbeiten]
user:goeranh meinte 2023-12-22, dass bei alle Datasets für ZFS, die nicht durch das #Betriebssystem (PBS) verwaltet werden, für die Eigenschaft beim Schlüssel 'mountpoint der Wert legacy gesetzt werden soll, weil das Dataset für ZFS nicht in das System eingehängt wird, denn ansonsten gibt das System Fehler aus, da es bei der wiederkehren Aufgabe zum Entfernen von nicht mehr benötigten Stände (Snapshots für ZFS) unzureichende Berechtigungen bei den (manuell) erstellten Datasets für ZFS hat.
Setzen der Eigenschaft vom Schlüssel mountpoint auf den Wert legacy (bei einem beispielhaften Dataset dataset (vom Pool pool))
zfs set mountpoint=legacy pool/dataset
einzelne manuell erstellte Datasets für ZFS[Bearbeiten]
Datasets für ZFS für die Datensicherung von der Website[Bearbeiten]
Die Daten der Website (aka Plone) sollen gesichert werden.
backup/plone backup/plone/jails backup/plone/jails/plone backup/plone/website backup/plone/website/plone backup/plone/website/plone/var backup/plone/website/plone/var/blobstorage backup/plone/website/plone/var/filestorage
Konfiguration[Bearbeiten]
zusätzlich installierte Pakete[Bearbeiten]
- Zusammenfassung
apt -y install parted tmux vim micro lshw htop iperf3 iotop iftop lm-sensors
Zusätzlich installierte Pakete sind:
- Verwaltung der Partitionierung von Geräten für Massenspeicher (beispielsweise notwendig, um Geräte einfach "zu plätten" die bereits mit dem Dateisystem ZFS verwendet wurden)
- parted
- Multiplexer (, der beim Bereich Administration Rechentechnik üblich ist)
- tmux
- Editor, den mindestens goeranh haben mag
- vim
- Editor, den mindestens offbyone haben mag
- micro
- für die Unterstützung zur Inventarisierung von Hardware
- lshw
- Werkzeuge zur Beobachtung vom System
- htop
- iperf3
- iotop
- iftop
- lm-sensors
Siehe auch[Bearbeiten]
- Server
- Server/srs3005
- Server/srs3006
- Server/srs3007 (mögliche Geschwister)
- Maschine/nax