Server/b1: Unterschied zwischen den Versionen

Aus Wiki StuRa HTW Dresden
Zur Navigation springen Zur Suche springen
K (PaulRiegel verschob die Seite Server/srs3008 nach Server/b1)
Keine Bearbeitungszusammenfassung
Zeile 1: Zeile 1:
== Betriebssystem ==
== Betriebssystem ==
<s>
[[FreeNAS]]&nbsp;Corral


== FreeNAS ==
; Proxmox Backup Server:
 
=== Installation von FreeNAS ===
 
==== Vorbereitung der Installation von FreeNAS ====
 
===== sonst übliche Vorbereitung der Installation von FreeNAS =====
 
Die (Vorbereitung der) Installation von FreeNAS<sup>[http://doc.freenas.org/9.10/install.htmll]</sup> erfolgt eigentlich schlichtweg durch
* das <sup>[http://doc.freenas.org/9.10/install.html#getting-freenas]</sup>Beziehen von einer ''iso''-Datei, welche schon als startfähig vorbereitet ist,
* das <sup>[http://doc.freenas.org/9.10/install.html#preparing-the-media]</sup>Erstellen von einem Startmedium mit der ''iso''-Datei und
* das Starten von dem Startmedium auf der Maschine, wo FreeNAS betrieben werden soll.
 
==== Durchführung der Installation von FreeNAS ====
 
2016-10-29
 
; First Boot
 
; FreeNAS Einstellungen
<!--
----
---- nachfolgender Inhalt dient nur als mögliche Vorlage und entspricht nicht den vorgenommen Einstellungen
----
* System/Informationen
*: Enable powerd (Power Saving Daemon):
*: Show console messages in the footer:
*: MOTD banner: StuRa DickeBerta
* Root CA und CA erstellt
* Zpool für Daten erstellen
*: <code>zpool create zroot raidz /dev/da0p4 /dev/da1p4 /dev/da2p4</code>
*: <code>zfs set checksum=sha256 zroot</code>
*: <code>zfs set compression=lz4 zroot</code>
*: <code>zfs create -o checksum=sha256 -o compression=lz4 -o mountpoint=/zroot/jails zroot/jails</code>
* zpool struktur
** <small>nicht <code>zfs create -o checksum=sha256 -o compression=lz4 -o mountpoint=/mnt freebsd-boot/mnt</code></small>
* zpool export
*: <code>zpool export zroot</code>
* per GUI jetzt importieren
*::: "Importieren vom zpool über die Oberfläche von FreeNAS"?
*: ''Storage'' -> ''Import Volume''
* Smartmontools Hack
*: <code>$EDITOR /usr/local/etc/smartd.conf</code>
<pre>
DEVICESCAN
</pre>
* Logfiles umlinken
*: ''System'' -> ''Systemdatasets'' -> ''zroot/ für Syslog/Database''
* SSH auf FreeNAS
** ssh logo
*: <code>chmod 0700 /root/.ssh</code>
*: <code>$EDITOR /root/.ssh/authorized_keys</code>
*:* keys einfügen
*: <code>chmod 0600 /root/.ssh/authorized_keys</code>
*: (per Web GUI) ''Services'' -> ''SSH'' -> ''Einstellung''
*:: ''Advanced Mode''
*::: Feld ''Extra options''
<pre>
PubkeyAuthentication yes
</pre>
** SSH Neustarten
----
!-->
 
==== Anpassungen nach der Installation von FreeNAS ====
 
<!--
----
---- nachfolgender Inhalt dient nur als mögliche Vorlage und entspricht nicht den vorgenommen Einstellungen
----
===== /etc/sysctl.conf =====
 
<pre>
# SysV Interprozesskommunikation
security.jail.sysvipc_allowed=1
</pre>
----
!-->
===== Versand von Mails von FreeNAS =====
 
* System
** Email
*** From email:
***: ''srs3008@stura''…
*** Outgoing mail server:
***: ''mail.stura''…
**: …
 
===== bash als übliche Shell für root =====
 
* Account
** Users
*** View Users
**** root
***** Shell:
*****: bash
 
===== verschlüsselte Verbindung für die Web-Oberfläche =====
 
* System
** CAs
*** erstellt
** Certifcates
*** erstellt
 
===== Adressen für die Umwelt mit legacy IP =====
 
* Network
** Global Configuration
*** eingetragen
**** ....
 
===== feste Adresse mit legacy IP =====
 
* Network
** Interfaces
*** hinzugefügt
***: siehe [[Intern:Server#Verwendung von IP-Adressen]]
**** ....
 
==== anstehende Anpassungen nach der Installation von FreeNAS ====
 
===== Störung von ''smartd'' beheben =====
 
smartd is not running.
 
Das liegt wohl an dem foo mit dem (anscheind nicht verzichtbaren) Hardware-RAID!
 
[[Diskussion:Server/srs3008#smartd und der Zugriff über den RAID Controller bei FreeNAS]]
 
=== Dokumentation FreeNAS ===
 
http://doc.freenas.org/9.10/
 
; Siehe auch:
* [[srs1337#besonders Nennenswertes zu FreeNAS]]
 
=== Nachbessern bei FreeNAS ===
</s>
 
== Proxmox VE ==
 
[[Proxmox VE]]
 
=== Installation von Proxmox VE ===
 
=== Konfiguration von Proxmox VE ===
 
== Proxmox Backup Server ==


Dokumentation mangelhaft (siehe https://pro.stura.htw-dresden.de/issues/1828)
Dokumentation mangelhaft (siehe https://pro.stura.htw-dresden.de/issues/1828)


Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. Es wird als Dateisystem ZFS verwendet.


Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. Es wird als Dateisystem ZFS verwendet.
=== Installation PBS ===


Konfiguration des Pools
Konfiguration des Pools
Zeile 209: Zeile 60:
https://pro.stura.htw-dresden.de/issues/1723
https://pro.stura.htw-dresden.de/issues/1723


=== Zusätzlich installierte Software ===
== Konfiguration ==
Es wurde lshw, tmux, parted, iperf3, iotop, iftop, lm-sensors, htop, vim installiert.
 
=== zusätzlich installierte Pakete ===
 
Zusätzlich installierte Pakete sind:
* Verwaltung der Partitionierung von Geräten für Massenspeicher (beispielsweise notwendig, um Geräte einfach "zu plätten" die bereits mit dem Dateisystem ZFS verwendet wurden)
*: ''parted''
* Multiplexer (, der beim Bereich Administration Rechentechnik üblich ist)
*: tmux
* Editor, den goeranh haben mag
*: vim
* für die Unterstützung zur Inventarisierung von Hardware
*: lshw
* Werkzeuge zur Beobachtung vom System
*: htop
*: iperf3
*: iotop
*: iftop
*: lm-sensors


== Siehe auch ==
== Siehe auch ==

Version vom 21. Dezember 2023, 17:25 Uhr

Betriebssystem

Proxmox Backup Server

Dokumentation mangelhaft (siehe https://pro.stura.htw-dresden.de/issues/1828)

Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE. Es wird als Dateisystem ZFS verwendet.

Installation PBS

Konfiguration des Pools

root@b1:~#  zpool status
  pool: backup
 state: ONLINE
  scan: scrub in progress since Sun Dec 10 00:24:03 2023
        3.33T scanned at 0B/s, 1.42T issued at 255M/s, 3.34T total
        0B repaired, 42.51% done, 02:11:35 to go
config:

        NAME                        STATE     READ WRITE CKSUM
        backup                      ONLINE       0     0     0
          raidz1-0                  ONLINE       0     0     0
            wwn-0x5000cca25e489938  ONLINE       0     0     0
            wwn-0x5000cca25e2f69b0  ONLINE       0     0     0
            wwn-0x5000cca25e49eb1c  ONLINE       0     0     0
            wwn-0x5000cca25e463d14  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
  scan: scrub repaired 0B in 00:13:11 with 0 errors on Sun Dec 10 00:37:16 2023
config:

        NAME                                 STATE     READ WRITE CKSUM
        rpool                                ONLINE       0     0     0
          mirror-0                           ONLINE       0     0     0
            ata-ST2000NM0011_Z1P2XPCP-part3  ONLINE       0     0     0
            ata-ST32000645NS_Z1K0PDJP-part3  ONLINE       0     0     0

errors: No known data errors
root@b1:~# zfs list
NAME               USED  AVAIL     REFER  MOUNTPOINT
backup            2.42T  2.73T     2.42T  /mnt/datastore/backup
rpool             11.1G  1.75T       96K  /rpool
rpool/ROOT        11.0G  1.75T       96K  /rpool/ROOT
rpool/ROOT/pbs-1  11.0G  1.75T     11.0G  /
root@b1:~# 


Damit von wichtigen Instanzen aus dem Proxmox Cluster Backups auf einem anderen Gerät liegen, betreiben wir PBS, weil es von der selben Firma ist, wie PVE.

https://pro.stura.htw-dresden.de/issues/791 -- Reinstall https://pro.stura.htw-dresden.de/issues/1140 https://pro.stura.htw-dresden.de/issues/1187 https://pro.stura.htw-dresden.de/issues/1723

Konfiguration

zusätzlich installierte Pakete

Zusätzlich installierte Pakete sind:

  • Verwaltung der Partitionierung von Geräten für Massenspeicher (beispielsweise notwendig, um Geräte einfach "zu plätten" die bereits mit dem Dateisystem ZFS verwendet wurden)
    parted
  • Multiplexer (, der beim Bereich Administration Rechentechnik üblich ist)
    tmux
  • Editor, den goeranh haben mag
    vim
  • für die Unterstützung zur Inventarisierung von Hardware
    lshw
  • Werkzeuge zur Beobachtung vom System
    htop
    iperf3
    iotop
    iftop
    lm-sensors

Siehe auch