Bearbeiten von „Server/Proxmox Virtual Environment

Zur Navigation springen Zur Suche springen
Warnung: Du bist nicht angemeldet. Deine IP-Adresse wird bei Bearbeitungen öffentlich sichtbar. Melde dich an oder erstelle ein Benutzerkonto, damit Bearbeitungen deinem Benutzernamen zugeordnet werden. Ein eigenes Benutzerkonto hat eine ganze Reihe von Vorteilen.

Die Bearbeitung kann rückgängig gemacht werden. Bitte prüfe den Vergleich unten, um sicherzustellen, dass du dies tun möchtest, und veröffentliche dann unten deine Änderungen, um die Bearbeitung rückgängig zu machen.

Aktuelle Version Dein Text
Zeile 11: Zeile 11:
Standardmäßig ist das web user interface per https auf Port ''8006'' zu erreichen.<sup>[https://pve.proxmox.com/wiki/Ports]</sup>
Standardmäßig ist das web user interface per https auf Port ''8006'' zu erreichen.<sup>[https://pve.proxmox.com/wiki/Ports]</sup>


=== Aktualisierung ===
=== sources.list ===
 
==== Aktualisierung innerhalb von Hauptversionen ====
 
(''Server View'')
: (''Dataceenter'')
:: (jeweiliger) Server
::: Reiter ''Updates''
:::: Reiter ''Refresh''
:::: Reiter ''Upgrade''
 
* https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_system_software_updates
* https://pve.proxmox.com/pve-docs/pve-admin-guide.html#ha_manager_package_updates
 
==== Aktualisierung zwischen Hauptversionen ====
 
=== Quellen für Pakete ===
 
==== sources.list ====


: Proxmox Version 6
: Proxmox Version 6
Zeile 214: Zeile 196:


==== Proxmox Storage Type ''ZFS'' ====
==== Proxmox Storage Type ''ZFS'' ====
== Proxmox Ceph ==
[[c3d2:Proxmox#Proxmox Ceph]]
=== Ceph ===
==== Ceph Dashboard ====
[[c3d2:Proxmox#Ceph Dashboard]]
=== Ceph rebalance ===
=== Ceph recovery ===
https://docs.ceph.com/en/latest/dev/osd_internals/backfill_reservation/
https://www.suse.com/support/kb/doc/?id=000019693
https://docs.ceph.com/en/latest/rados/configuration/osd-config-ref/#backfilling
https://docs.ceph.com/en/latest/rados/configuration/osd-config-ref/#backfilling
=== Proxmox Ceph Verwaltung von Geräten ===
===== Ersetzen von Geräten für Massenspeicher bei Proxmox Ceph =====
https://pro.stura.htw-dresden.de/issues/839
===== Erweiterung mit Geräten für Massenspeicher bei Proxmox Ceph =====
* Gerät für Massenspeicher (Festplatte) in einen freien Schacht einschieben
* Verfügbarkeit (Ist das Gerät beim Server so angebunden, dass darauf zugegriffen werden kann?) prüfen
*: Beim entsprechenden Node bei <tt>Disks</tt> sollte ein neues Gerät als fortlaufender Buchstabe in der Spalte <tt>Device</tt> beispielsweise als <tt>/dev/sd''x''</tt> angezeigt werden.
* Bereinigung aller möglichen Partitionen
*: <code>fdisk <tt>/dev/sd''x''</tt></code>
*:* Entfernen aller möglichen Partitionen mit <code>d</code>
*:* (nach der Entfernung aller möglichen Partitionen) Erstellen einer neuen Tabelle für die Partitionierung (GPT) mit <code>g</code>
*:* (nach der Erstellung einer neuen Tabelle für die Partitionierung (GPT)) Anwendung der gemachten Änderungen durch das Schreiben mit <code>w</code>
* (um die Änderung für das System richtig zu erkennen) Neustarten des Systems, etwa mit <code>reboot</code>
* Verfügbarkeit (Ist das Gerät beim Server vielleicht anders angebunden, um darauf zugegriffen zu können?) prüfen
*: Beim entsprechenden Node bei <tt>Disks</tt> sollte ein das neue Gerät als fortlaufender Buchstabe nach den Geräten des Systems (vor den Geräten für Ceph) in der Spalte ''Device'' beispielsweise als <tt>/dev/sd''c''</tt> angezeigt werden.
* beim entsprechenden Node bei <tt>Ceph</tt> und <tt>OSD</tt> die Schaltfläche <tt>Create: OSD</tt> anwählen
** beim Feld für die Auswahl <tt>Disks:</tt> das neue Gerät beispielsweise <tt>/dev/sd''c''</tt> anwählen
** (beim Feld für die Auswahl <tt>DB Disks:</tt> nichts anwählen (das Feld leer lassen)
** die Schaltfläche <tt>Create</tt> anwählen
* bei <tt>Ceph</tt> und <tt>OSD</tt> die Schaltfläche <tt>Reload</tt> anwählen
* Verfügbarkeit (Ist das Gerät als OSD bei Ceph angebunden?) prüfen
* (beim <tt>Datacenter</tt> bei <tt>Ceph</tt> den Vorgang zum Ausgleichen <tt>Recovery/ Rebalance:</tt> (bis zum Ende) verfolgen)
* …


== Containerisierung ==
== Containerisierung ==
Zeile 279: Zeile 215:


====== Änderung der Konfiguration von Instanzen der Containerisierung von privilegiert zu unprivilegiert durch backup and restore ======
====== Änderung der Konfiguration von Instanzen der Containerisierung von privilegiert zu unprivilegiert durch backup and restore ======
Test durchgeführt von goeranh -> Container und VMs können restored werden, indem man auf den Server(n1-3) klickt und dort auf den Storrage b1 -> aus dieser liste kann dann selbst ein gelöschter Container wiederhergestellt werden. Es wurde das Bedenken geäußert, dass VM-IDs kollidieren, wenn ein Container gelöscht wird, ein neuer erstellt und dann der alte Container wieder restored wird. In dieser Situation wird einfach eine neue ID vergeben.


  Ungetestet!
  Ungetestet!
Zeile 408: Zeile 342:
:: <code>pct start --debug=1 321</code>
:: <code>pct start --debug=1 321</code>


=== Problembehebung bei der Containerisierung ===
=== Troubleshoot ===
: aka Troubleshooting pct
==== Container startet nicht ====


==== Probĺemerkennung bei der Containerisierung ====
Wenn der Frisch erstellte Container nicht startet, Netzwerkeinstellungen prüfen. DHCP für IPV6 verzögert den Start um 5 Minuten. Diese Option abschalten. (statisch ohne Eintrag)


Starten von einem Container (LXC) im Modus für die Fehlerbehehung
Befehl zum debuggen solcher Späße:
: <code>lxc-start -n <Containernummer> -F -l DEBUG</code>
: <code>lxc-start -n <Containernummer> -F -l DEBUG</code>
==== Problem, dass ein Container lange nicht startet ====
; Problem zur (falschen) Konfiguration zur Verwendung von IPv6:
: Wenn versehentlich bei der Erstellung von einem Container bei ''Network'' was zu IPv6 (beispielsweise DHCP) konfiguriert und damit aktiviert wurde, dann wird beim Starten vom Container mehrere (etwa 5) Minuten versucht IPv6 zu verwenden. Leider gibt es in unserer Umgebung ([[Server HTW Dresden]]) kein IPv6.
: Das Problem lässt sich beheben in dem bei der Konfiguration bei <tt>IPv6</tt> die voreingestellte Option <tt>Static</tt> ausgewählt wird und Einträge zu IPv6 (beispielsweise bei <tt>IPv6/CIDR</tt>) bestehen.
: Im Übrigen kann dazu auch die Datei für die Konfiguration vom Container (beispielsweise mit der Nummer ''1337'') gesichtet und womöglich angepasst werden.
:: <code>less /etc/pve/lxc/1337.conf</code>
:: <code>nano /etc/pve/lxc/1337.conf</code>


=== unterschiedliche Container ===
=== unterschiedliche Container ===
Zeile 440: Zeile 365:


==== Containerisierung für [[NixOS]] ====
==== Containerisierung für [[NixOS]] ====
===== Erstellung von Instanzen der Containerisierung für [[NixOS]] =====


Aktuell (2020-03) gibt es keine für [[Server/Proxmox]] angebotene Vorlage für das Betriebssystem [[NixOS]].
Aktuell (2020-03) gibt es keine für [[Server/Proxmox]] angebotene Vorlage für das Betriebssystem [[NixOS]].


* <s>https://nixos.wiki/wiki/Proxmox_Linux_Container</s>
* https://nixos.wiki/wiki/Proxmox_Linux_Container
* https://nixos.wiki/wiki/Proxmox_Virtual_Environment#LXC
* https://wiki.c3d2.de/Proxmox#Proxmox_CT_NixOS
* https://wiki.c3d2.de/Proxmox#Proxmox_CT_NixOS


Zeile 453: Zeile 375:
* https://pro.stura.htw-dresden.de/issues/856
* https://pro.stura.htw-dresden.de/issues/856
* https://nixos.wiki/wiki/Talk:Proxmox_Linux_Container
* https://nixos.wiki/wiki/Talk:Proxmox_Linux_Container
<s>
(2022-06) NixOS 22.05 wurde zunächst auf dem Testserver als Container installiert. Dabei muss man beachten, dass der Container nicht in der Web-GUI erstellt werden darf, sondern mittels folgendem Command:
<code>pct create $CTID$ cephfs:vztmpl/nixos-22.05.tar.xz --ostype unmanaged --net0 name=eth0,firewall=1,ip=dhcp,bridge=vmbr0 --storage $STORRAGE$ --unprivileged 1 --features nesting=1</code>
Dabei sollte natürlich $CTID$ durch eine im Proxmox noch freie Container-ID ersetzt werden und $STORRAGE$ durch den gewünschten speicherort für den neuen Container (der Container-Template Name kann sich auch ändern).
* https://pve.proxmox.com/pve-docs/pct.1.html
</s>
https://hydra.nixos.org/job/nixos/release-22.05/nixos.proxmoxLXC.x86_64-linux
====== Besonderheiten Erstellung von Instanzen der Containerisierung für [[NixOS]] ======
* Enter Nixos Konsole wenn tty ausgewählt ist  ". /etc/profile"
; Options:
:; Console mode: <tt>console</tt> (statt <tt>Default (tty)</tt>)
===== Containerisierung für [[NixOS]] Aktualisierung =====
====== Containerisierung für [[NixOS]] Aktualisierung 21.11 ======
(optionales) Auflisten aller verfügbaren Kanäle (für Software) für [[NixOS]]
: <code>nix-channel --list | grep nixos</code>
<pre>
nixos https://nixos.org/channels/nixos-21.05
</pre>
Hinzufügen des neuen (nachfolgenden) Kanals (für Software) für [[NixOS]] (beispielhaft ''21.11'')
: <code>nix-channel --add https://nixos.org/channels/nixos-21.11 nixos</code>
: <code>nixos-rebuild switch --upgrade</code>
<pre>
unpacking channels...
</pre>
<pre></pre>
<pre>
==================== Results ===================
No issues found.
==================== Summary ===================
Total issues:
    Unspecified: 0
    Low: 0
    Medium: 0
    High: 0
</pre>
<pre></pre>
<pre>
ln: failed to create symbolic link '/sbin/init': No such file or directory
Activation script snippet 'installInitScript' failed (1)
restarting systemd...
setting up tmpfiles
reloading the following units: dbus.service, dev-mqueue.mount, firewall.service, sys-fs-fuse-connections.mount
Job failed. See "journalctl -xe" for details.
restarting the following units: dhcpcd.service, network-addresses-eth0.service, nginx.service, systemd-journald.service
starting the following units: acme-fixperms.service, acme-pro.stura.htw-dresden.de.timer, network-local-commands.service, network-setup.service, nix-daemon.socket, nscd.service, resolvconf.service, systemd-sysctl.service, systemd-tmpfiles-clean.timer, systemd-tmpfiles-setup-dev.service
warning: error(s) occurred while switching to the new configuration
</pre>
: <code>nixos-rebuild switch --upgrade</code>
<pre>
unpacking channels...
created 1 symlinks in user environment
building Nix...
building the system configuration...
activating the configuration...
setting up /etc...
ln: failed to create symbolic link '/sbin/init': No such file or directory
Activation script snippet 'installInitScript' failed (1)
setting up tmpfiles
warning: error(s) occurred while switching to the new configuration
</pre>
: <code>mkdir /sbin/</code>
: <code>nixos-rebuild switch --upgrade</code>
<pre></pre>


==== Containerisierung für bestimmte Anwendungen ====
==== Containerisierung für bestimmte Anwendungen ====

Bitte beachte, dass alle Beiträge zu Wiki StuRa HTW Dresden von anderen Mitwirkenden bearbeitet, geändert oder gelöscht werden können. Reiche hier keine Texte ein, falls du nicht willst, dass diese ohne Einschränkung geändert werden können.

Du bestätigst hiermit auch, dass du diese Texte selbst geschrieben hast oder diese von einer gemeinfreien Quelle kopiert hast (weitere Einzelheiten unter StuRa HTW Dresden:Urheberrechte). ÜBERTRAGE OHNE GENEHMIGUNG KEINE URHEBERRECHTLICH GESCHÜTZTEN INHALTE!

Bitte beantworte die folgende Frage, um diese Seite speichern zu können (weitere Informationen):

Abbrechen Bearbeitungshilfe (wird in einem neuen Fenster geöffnet)