Server/b1: Unterschied zwischen den Versionen

Aus Wiki StuRa HTW Dresden
Zur Navigation springen Zur Suche springen
 
(8 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
== Gerät ==
; hergestellt von: Fuitsu
; Modell (Product): Primergy RX300 S8
; Typ (Model): PR300C-D2939
:; (Part No.): K1457-V101-8
{| class="wikitable"
|-
! rowspan="2" |
! rowspan="2" | Komponente
! colspan="2" | Anzahl
! rowspan="2" | Bezeichnung
|-
! belegt
! belegbar
|-
| 1
| Mainboard
| colspan="2" style="text-align:right" | 1
|
|-
| 96 GB
| RAM
| style="text-align:right"| 12
| style="text-align:right"| 2 x 12
| 8 GB (ECC)
: 4 x SK hynix [https://store.hp.com/us/en/pdp/hp-8gb-1rx4-pc3-12800r-11-kit 1Rx4 PC3-12800R (HP)] 11 12 C2
: 8 x Kingston [https://store.hp.com/us/en/pdp/hp-8gb-1rx4-pc3-12800r-11-kit 1Rx4 PC3-12800R (HP)] 11 12 C2
|-
| 1
| CPU
| style="text-align:right"| 1
| style="text-align:right"| 2
| style="text-align:right"|[http://ark.intel.com/products/64594/Intel-Xeon-Processor-E5-2620-15M-Cache-2_00-GHz-7_20-GTs-Intel-QPI Intel(R) Xeon(R) CPU E5-2620 v2 @ 2.10GHz]
|-
| 1
| RAID
| colspan="2" style="text-align:right"|
|
[http://www.fujitsu.com/de/products/computing/servers/primergy/components/pmod-81156.html D2616]-A22 GS 1
* 8 x SAS/SATA
|-
| <s>1.200&nbsp;GB</s><br />(2 ·) 2&nbsp;TB
| HDD
| style="text-align:right"| <s>2</s><br />2
| style="text-align:right"| 6
| <s>600&nbsp;GB (SAS)</s><br />2&nbsp;TB [https://www.hgst.com/products/hard-drives/ultrastar-7k6000 HGST HUS726020ALS214]([https://www.heise.de/preisvergleich/hgst-ultrastar-7k6000-2tb-hus726020als214-0f22961-a1750617.html 0F22961])
|-
| 1
| Netzwerk
| colspan="2" style="text-align:right"|
|
[http://www.fujitsu.com/de/products/computing/servers/primergy/components/pmod_143315.html D2745]-A11 GS 1
* 4 x 1&nbsp;GBit
|-
|}
; [[#integrated Remote Management Controller|iRMC]]
=== Software für das Gerät ===
== Anschaffung ==
Was für eine Geschichte! Es war einmal eine alte Infrastruktur, die ersetzt werden sollte ...
Selbst Ende 2016 war das Drama noch nicht geklärt!
Hoffentlich wird bald hier das gute Ende vermerkt stehen.
== Betriebssystem ==
== Betriebssystem ==
<s>
[[FreeNAS]]&nbsp;Corral


== FreeNAS ==
; Proxmox Backup Server:


=== Installation von FreeNAS ===
Dokumentation mangelhaft (siehe https://pro.stura.htw-dresden.de/issues/1828)


==== Vorbereitung der Installation von FreeNAS ====
Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. Es wird als Dateisystem ZFS verwendet.
 
===== sonst übliche Vorbereitung der Installation von FreeNAS =====
 
Die (Vorbereitung der) Installation von FreeNAS<sup>[http://doc.freenas.org/9.10/install.htmll]</sup> erfolgt eigentlich schlichtweg durch
* das <sup>[http://doc.freenas.org/9.10/install.html#getting-freenas]</sup>Beziehen von einer ''iso''-Datei, welche schon als startfähig vorbereitet ist,
* das <sup>[http://doc.freenas.org/9.10/install.html#preparing-the-media]</sup>Erstellen von einem Startmedium mit der ''iso''-Datei und
* das Starten von dem Startmedium auf der Maschine, wo FreeNAS betrieben werden soll.
 
==== Durchführung der Installation von FreeNAS ====
 
2016-10-29
 
; First Boot
 
; FreeNAS Einstellungen
<!--
----
---- nachfolgender Inhalt dient nur als mögliche Vorlage und entspricht nicht den vorgenommen Einstellungen
----
* System/Informationen
*: Enable powerd (Power Saving Daemon):
*: Show console messages in the footer:
*: MOTD banner: StuRa DickeBerta
* Root CA und CA erstellt
* Zpool für Daten erstellen
*: <code>zpool create zroot raidz /dev/da0p4 /dev/da1p4 /dev/da2p4</code>
*: <code>zfs set checksum=sha256 zroot</code>
*: <code>zfs set compression=lz4 zroot</code>
*: <code>zfs create -o checksum=sha256 -o compression=lz4 -o mountpoint=/zroot/jails zroot/jails</code>
* zpool struktur
** <small>nicht <code>zfs create -o checksum=sha256 -o compression=lz4 -o mountpoint=/mnt freebsd-boot/mnt</code></small>
* zpool export
*: <code>zpool export zroot</code>
* per GUI jetzt importieren
*::: "Importieren vom zpool über die Oberfläche von FreeNAS"?
*: ''Storage'' -> ''Import Volume''
* Smartmontools Hack
*: <code>$EDITOR /usr/local/etc/smartd.conf</code>
<pre>
DEVICESCAN
</pre>
* Logfiles umlinken
*: ''System'' -> ''Systemdatasets'' -> ''zroot/ für Syslog/Database''
* SSH auf FreeNAS
** ssh logo
*: <code>chmod 0700 /root/.ssh</code>
*: <code>$EDITOR /root/.ssh/authorized_keys</code>
*:* keys einfügen
*: <code>chmod 0600 /root/.ssh/authorized_keys</code>
*: (per Web GUI) ''Services'' -> ''SSH'' -> ''Einstellung''
*:: ''Advanced Mode''
*::: Feld ''Extra options''
<pre>
PubkeyAuthentication yes
</pre>
** SSH Neustarten
----
!-->
 
==== Anpassungen nach der Installation von FreeNAS ====
 
<!--
----
---- nachfolgender Inhalt dient nur als mögliche Vorlage und entspricht nicht den vorgenommen Einstellungen
----
===== /etc/sysctl.conf =====
 
<pre>
# SysV Interprozesskommunikation
security.jail.sysvipc_allowed=1
</pre>
----
!-->
===== Versand von Mails von FreeNAS =====


* System
=== Installation PBS ===
** Email
*** From email:
***: ''srs3008@stura''…
*** Outgoing mail server:
***: ''mail.stura''…
**: …


===== bash als übliche Shell für root =====
== Administration ==


* Account
=== Storage ===
** Users
*** View Users
**** root
***** Shell:
*****: bash


===== verschlüsselte Verbindung für die Web-Oberfläche =====
==== Storage allgemein ====
 
* System
** CAs
*** erstellt
** Certifcates
*** erstellt
 
===== Adressen für die Umwelt mit legacy IP =====
 
* Network
** Global Configuration
*** eingetragen
**** ....
 
===== feste Adresse mit legacy IP =====
 
* Network
** Interfaces
*** hinzugefügt
***: siehe [[Intern:Server#Verwendung von IP-Adressen]]
**** ....
 
==== anstehende Anpassungen nach der Installation von FreeNAS ====
 
===== Störung von ''smartd'' beheben =====
 
smartd is not running.
 
Das liegt wohl an dem foo mit dem (anscheind nicht verzichtbaren) Hardware-RAID!
 
[[Diskussion:Server/srs3008#smartd und der Zugriff über den RAID Controller bei FreeNAS]]
 
=== Dokumentation FreeNAS ===
 
http://doc.freenas.org/9.10/
 
; Siehe auch:
* [[srs1337#besonders Nennenswertes zu FreeNAS]]
 
=== Nachbessern bei FreeNAS ===
</s>
 
== Proxmox VE ==
 
[[Proxmox VE]]
 
=== Installation von Proxmox VE ===
 
=== Konfiguration von Proxmox VE ===
 
== Proxmox Backup Server ==
 
Dokumentation mangelhaft (siehe https://pro.stura.htw-dresden.de/issues/1828)
 
 
Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. Es wird als Dateisystem ZFS verwendet.


Konfiguration des Pools
Konfiguration des Pools


: <code>zpool status</code>
<pre>
<pre>
root@b1:~#  zpool status
   pool: backup
   pool: backup
  state: ONLINE
  state: ONLINE
Zeile 261: Zeile 48:


errors: No known data errors
errors: No known data errors
root@b1:~# zfs list
</pre>
 
: <code>zfs list</code>
<pre>
NAME              USED  AVAIL    REFER  MOUNTPOINT
NAME              USED  AVAIL    REFER  MOUNTPOINT
backup            2.42T  2.73T    2.42T  /mnt/datastore/backup
backup            2.42T  2.73T    2.42T  /mnt/datastore/backup
Zeile 267: Zeile 57:
rpool/ROOT        11.0G  1.75T      96K  /rpool/ROOT
rpool/ROOT        11.0G  1.75T      96K  /rpool/ROOT
rpool/ROOT/pbs-1  11.0G  1.75T    11.0G  /
rpool/ROOT/pbs-1  11.0G  1.75T    11.0G  /
root@b1:~#
</pre>
</pre>


Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE.
Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE.
Zeile 279: Zeile 67:
https://pro.stura.htw-dresden.de/issues/1723
https://pro.stura.htw-dresden.de/issues/1723


=== Zusätzlich installierte Software ===
=== Pools für ZFS ===
Es wurde lshw, tmux, parted, iperf3, iotop, iftop, lm-sensors, htop installiert.
 
==== Pool für das Betriebssystem ====
==== Pool rpool ====
 
Bei der Installation (vom [[#Betriebssystem]] PBS) kann die Installation vom System auf dem Dateisystem ZFS ausgewählt werden. Bei der Installation wird dann schon gleich der Pool für ZFS ''rpool'' (standardmäßige Bezeichnung) erstellt. Im Pool für ZFS ''rpool'' liegen dann die Daten für das [[#Betriebssystem]] selbst, also nicht schon die Daten für Datensicherungen (''Storage'' für ''Datastore'').
 
==== Pool für die Datensicherungen ====
==== Pool backup ====
 
Nach der Installation (vom [[#Betriebssystem]] PBS) muss - wenn das Dateisystem ZFS für den Speicher von Datensicherungen verwendet werden soll - ein Pool (neben dem womöglich schon bestehenden [[#Pool für das Betriebssystem]]) erstellt werden.
 
Bei der selbst festzulegenden Bezeichnung vom Pool für ZFS wurde ''backup'' gewählt.
Bei der festzulegenden Art von Redundanz vom Pool für ZFS wurde RAIDZ für ZFS gewählt.
 
; Administration
:; Storage / Disks
::; ZFS:
:::; Create<nowiki>:</nowiki> ZFS:
::::; Name: ''backup''
::::; Add as Datastore: X (Voreinstellung)
::::; RAID Level: <code>RAIDZ</code>
::::; Compression: <code>on</code> (Voreinstellung)
::::; ashift: ''12'' (Voreinstellung)
 
=== Datasets für ZFS ===
 
==== manuell erstellte Datasets für ZFS ====
 
===== Erstellung von manuell erstellten Datasets für ZFS =====
 
[[user:goeranh]] meinte 2023-12-22, dass bei alle Datasets für ZFS, die nicht durch das [[#Betriebssystem]] ([[PBS]]) verwaltet werden, für die Eigenschaft beim Schlüssel '''mountpoint'' der Wert ''legacy'' gesetzt werden soll, weil das Dataset für ZFS nicht in das System eingehängt wird, denn ansonsten gibt das System Fehler aus, da es bei der wiederkehren Aufgabe zum Entfernen von nicht mehr benötigten Stände (Snapshots für ZFS) unzureichende Berechtigungen bei den (manuell) erstellten Datasets für ZFS hat.
 
Setzen der Eigenschaft vom Schlüssel <tt>mountpoint</tt> auf den Wert <tt>legacy</tt> (bei einem beispielhaften Dataset ''dataset'' (vom Pool ''pool''))
: <code>zfs set mountpoint=legacy pool/dataset</code>
 
===== einzelne manuell erstellte Datasets für ZFS =====
 
====== Datasets für ZFS für die Datensicherung von der Website ======
 
Die Daten der [[Website]] (aka [[Plone]]) sollen gesichert werden.
 
<pre>
backup/plone
backup/plone/jails
backup/plone/jails/plone
backup/plone/website
backup/plone/website/plone
backup/plone/website/plone/var
backup/plone/website/plone/var/blobstorage
backup/plone/website/plone/var/filestorage
</pre>
 
== Konfiguration ==
 
=== zusätzlich installierte Pakete ===
 
; Zusammenfassung:
: <code>apt -y install parted tmux vim micro lshw htop iperf3 iotop iftop lm-sensors</code>
 
Zusätzlich installierte Pakete sind:
* Verwaltung der Partitionierung von Geräten für Massenspeicher (beispielsweise notwendig, um Geräte einfach "zu plätten" die bereits mit dem Dateisystem ZFS verwendet wurden)
*: parted
* Multiplexer (, der beim Bereich Administration Rechentechnik üblich ist)
*: tmux
* Editor, den mindestens goeranh haben mag
*: vim
* Editor, den mindestens offbyone haben mag
*: micro
* für die Unterstützung zur Inventarisierung von Hardware
*: lshw
* Werkzeuge zur Beobachtung vom System
*: htop
*: iperf3
*: iotop
*: iftop
*: lm-sensors


== Siehe auch ==
== Siehe auch ==

Aktuelle Version vom 22. Dezember 2023, 12:34 Uhr

Betriebssystem[Bearbeiten]

Proxmox Backup Server

Dokumentation mangelhaft (siehe https://pro.stura.htw-dresden.de/issues/1828)

Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. Es wird als Dateisystem ZFS verwendet.

Installation PBS[Bearbeiten]

Administration[Bearbeiten]

Storage[Bearbeiten]

Storage allgemein[Bearbeiten]

Konfiguration des Pools

zpool status
  pool: backup
 state: ONLINE
  scan: scrub in progress since Sun Dec 10 00:24:03 2023
        3.33T scanned at 0B/s, 1.42T issued at 255M/s, 3.34T total
        0B repaired, 42.51% done, 02:11:35 to go
config:

        NAME                        STATE     READ WRITE CKSUM
        backup                      ONLINE       0     0     0
          raidz1-0                  ONLINE       0     0     0
            wwn-0x5000cca25e489938  ONLINE       0     0     0
            wwn-0x5000cca25e2f69b0  ONLINE       0     0     0
            wwn-0x5000cca25e49eb1c  ONLINE       0     0     0
            wwn-0x5000cca25e463d14  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
  scan: scrub repaired 0B in 00:13:11 with 0 errors on Sun Dec 10 00:37:16 2023
config:

        NAME                                 STATE     READ WRITE CKSUM
        rpool                                ONLINE       0     0     0
          mirror-0                           ONLINE       0     0     0
            ata-ST2000NM0011_Z1P2XPCP-part3  ONLINE       0     0     0
            ata-ST32000645NS_Z1K0PDJP-part3  ONLINE       0     0     0

errors: No known data errors
zfs list
NAME               USED  AVAIL     REFER  MOUNTPOINT
backup            2.42T  2.73T     2.42T  /mnt/datastore/backup
rpool             11.1G  1.75T       96K  /rpool
rpool/ROOT        11.0G  1.75T       96K  /rpool/ROOT
rpool/ROOT/pbs-1  11.0G  1.75T     11.0G  /

Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE.

https://pro.stura.htw-dresden.de/issues/791 -- Reinstall https://pro.stura.htw-dresden.de/issues/1140 https://pro.stura.htw-dresden.de/issues/1187 https://pro.stura.htw-dresden.de/issues/1723

Pools für ZFS[Bearbeiten]

Pool für das Betriebssystem[Bearbeiten]

Pool rpool[Bearbeiten]

Bei der Installation (vom #Betriebssystem PBS) kann die Installation vom System auf dem Dateisystem ZFS ausgewählt werden. Bei der Installation wird dann schon gleich der Pool für ZFS rpool (standardmäßige Bezeichnung) erstellt. Im Pool für ZFS rpool liegen dann die Daten für das #Betriebssystem selbst, also nicht schon die Daten für Datensicherungen (Storage für Datastore).

Pool für die Datensicherungen[Bearbeiten]

Pool backup[Bearbeiten]

Nach der Installation (vom #Betriebssystem PBS) muss - wenn das Dateisystem ZFS für den Speicher von Datensicherungen verwendet werden soll - ein Pool (neben dem womöglich schon bestehenden #Pool für das Betriebssystem) erstellt werden.

Bei der selbst festzulegenden Bezeichnung vom Pool für ZFS wurde backup gewählt. Bei der festzulegenden Art von Redundanz vom Pool für ZFS wurde RAIDZ für ZFS gewählt.

Administration
Storage / Disks
ZFS
Create: ZFS
Name
backup
Add as Datastore
X (Voreinstellung)
RAID Level
RAIDZ
Compression
on (Voreinstellung)
ashift
12 (Voreinstellung)

Datasets für ZFS[Bearbeiten]

manuell erstellte Datasets für ZFS[Bearbeiten]

Erstellung von manuell erstellten Datasets für ZFS[Bearbeiten]

user:goeranh meinte 2023-12-22, dass bei alle Datasets für ZFS, die nicht durch das #Betriebssystem (PBS) verwaltet werden, für die Eigenschaft beim Schlüssel 'mountpoint der Wert legacy gesetzt werden soll, weil das Dataset für ZFS nicht in das System eingehängt wird, denn ansonsten gibt das System Fehler aus, da es bei der wiederkehren Aufgabe zum Entfernen von nicht mehr benötigten Stände (Snapshots für ZFS) unzureichende Berechtigungen bei den (manuell) erstellten Datasets für ZFS hat.

Setzen der Eigenschaft vom Schlüssel mountpoint auf den Wert legacy (bei einem beispielhaften Dataset dataset (vom Pool pool))

zfs set mountpoint=legacy pool/dataset
einzelne manuell erstellte Datasets für ZFS[Bearbeiten]
Datasets für ZFS für die Datensicherung von der Website[Bearbeiten]

Die Daten der Website (aka Plone) sollen gesichert werden.

backup/plone
backup/plone/jails
backup/plone/jails/plone
backup/plone/website
backup/plone/website/plone
backup/plone/website/plone/var
backup/plone/website/plone/var/blobstorage
backup/plone/website/plone/var/filestorage

Konfiguration[Bearbeiten]

zusätzlich installierte Pakete[Bearbeiten]

Zusammenfassung
apt -y install parted tmux vim micro lshw htop iperf3 iotop iftop lm-sensors

Zusätzlich installierte Pakete sind:

  • Verwaltung der Partitionierung von Geräten für Massenspeicher (beispielsweise notwendig, um Geräte einfach "zu plätten" die bereits mit dem Dateisystem ZFS verwendet wurden)
    parted
  • Multiplexer (, der beim Bereich Administration Rechentechnik üblich ist)
    tmux
  • Editor, den mindestens goeranh haben mag
    vim
  • Editor, den mindestens offbyone haben mag
    micro
  • für die Unterstützung zur Inventarisierung von Hardware
    lshw
  • Werkzeuge zur Beobachtung vom System
    htop
    iperf3
    iotop
    iftop
    lm-sensors

Siehe auch[Bearbeiten]