Bearbeiten von „Server/Proxmox Virtual Environment

Zur Navigation springen Zur Suche springen
Warnung: Du bist nicht angemeldet. Deine IP-Adresse wird bei Bearbeitungen öffentlich sichtbar. Melde dich an oder erstelle ein Benutzerkonto, damit Bearbeitungen deinem Benutzernamen zugeordnet werden. Ein eigenes Benutzerkonto hat eine ganze Reihe von Vorteilen.

Die Bearbeitung kann rückgängig gemacht werden. Bitte prüfe den Vergleich unten, um sicherzustellen, dass du dies tun möchtest, und veröffentliche dann unten deine Änderungen, um die Bearbeitung rückgängig zu machen.

Aktuelle Version Dein Text
Zeile 11: Zeile 11:
Standardmäßig ist das web user interface per https auf Port ''8006'' zu erreichen.<sup>[https://pve.proxmox.com/wiki/Ports]</sup>
Standardmäßig ist das web user interface per https auf Port ''8006'' zu erreichen.<sup>[https://pve.proxmox.com/wiki/Ports]</sup>


=== Aktualisierung ===
=== sources.list ===
 
==== Aktualisierung innerhalb von Hauptversionen ====
 
(''Server View'')
: (''Dataceenter'')
:: (jeweiliger) Server
::: Reiter ''Updates''
:::: Reiter ''Refresh''
:::: Reiter ''Upgrade''
 
* https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_system_software_updates
* https://pve.proxmox.com/pve-docs/pve-admin-guide.html#ha_manager_package_updates
 
==== Aktualisierung zwischen Hauptversionen ====
 
=== Quellen für Pakete ===
 
==== sources.list ====


: Proxmox Version 6
: Proxmox Version 6
Zeile 39: Zeile 21:
<pre>
<pre>
Hit:1 http://security.debian.org/debian-security buster/updates InRelease
Hit:1 http://security.debian.org/debian-security buster/updates InRelease
Hit:2 http://deb.debian.org/debian buster InRelease
Hit:2 http://ftp.uni-kl.de/debian buster InRelease                                                                                        
Hit:3 http://deb.debian.org/debian buster-updates InRelease
Hit:3 http://ftp.uni-kl.de/debian buster-updates InRelease                                                                                
Hit:4 http://download.proxmox.com/debian/ceph-nautilus buster InRelease                             
Hit:4 http://download.proxmox.com/debian/ceph-nautilus buster InRelease                             
Hit:5 http://download.proxmox.com/debian/pve buster InRelease                                       
Hit:5 http://download.proxmox.com/debian/pve buster InRelease                                       
Zeile 214: Zeile 196:


==== Proxmox Storage Type ''ZFS'' ====
==== Proxmox Storage Type ''ZFS'' ====
== Proxmox Ceph ==
[[c3d2:Proxmox#Proxmox Ceph]]
=== Ceph ===
==== Ceph Dashboard ====
[[c3d2:Proxmox#Ceph Dashboard]]
=== Ceph rebalance ===
=== Ceph recovery ===
https://docs.ceph.com/en/latest/dev/osd_internals/backfill_reservation/
https://www.suse.com/support/kb/doc/?id=000019693
https://docs.ceph.com/en/latest/rados/configuration/osd-config-ref/#backfilling
https://docs.ceph.com/en/latest/rados/configuration/osd-config-ref/#backfilling
=== Proxmox Ceph Verwaltung von Geräten ===
===== Ersetzen von Geräten für Massenspeicher bei Proxmox Ceph =====
https://pro.stura.htw-dresden.de/issues/839
===== Erweiterung mit Geräten für Massenspeicher bei Proxmox Ceph =====
* Gerät für Massenspeicher (Festplatte) in einen freien Schacht einschieben
* Verfügbarkeit (Ist das Gerät beim Server so angebunden, dass darauf zugegriffen werden kann?) prüfen
*: Beim entsprechenden Node bei <tt>Disks</tt> sollte ein neues Gerät als fortlaufender Buchstabe in der Spalte <tt>Device</tt> beispielsweise als <tt>/dev/sd''x''</tt> angezeigt werden.
* Bereinigung aller möglichen Partitionen
*: <code>fdisk <tt>/dev/sd''x''</tt></code>
*:* Entfernen aller möglichen Partitionen mit <code>d</code>
*:* (nach der Entfernung aller möglichen Partitionen) Erstellen einer neuen Tabelle für die Partitionierung (GPT) mit <code>g</code>
*:* (nach der Erstellung einer neuen Tabelle für die Partitionierung (GPT)) Anwendung der gemachten Änderungen durch das Schreiben mit <code>w</code>
* (um die Änderung für das System richtig zu erkennen) Neustarten des Systems, etwa mit <code>reboot</code>
* Verfügbarkeit (Ist das Gerät beim Server vielleicht anders angebunden, um darauf zugegriffen zu können?) prüfen
*: Beim entsprechenden Node bei <tt>Disks</tt> sollte ein das neue Gerät als fortlaufender Buchstabe nach den Geräten des Systems (vor den Geräten für Ceph) in der Spalte ''Device'' beispielsweise als <tt>/dev/sd''c''</tt> angezeigt werden.
* beim entsprechenden Node bei <tt>Ceph</tt> und <tt>OSD</tt> die Schaltfläche <tt>Create: OSD</tt> anwählen
** beim Feld für die Auswahl <tt>Disks:</tt> das neue Gerät beispielsweise <tt>/dev/sd''c''</tt> anwählen
** (beim Feld für die Auswahl <tt>DB Disks:</tt> nichts anwählen (das Feld leer lassen)
** die Schaltfläche <tt>Create</tt> anwählen
* bei <tt>Ceph</tt> und <tt>OSD</tt> die Schaltfläche <tt>Reload</tt> anwählen
* Verfügbarkeit (Ist das Gerät als OSD bei Ceph angebunden?) prüfen
* (beim <tt>Datacenter</tt> bei <tt>Ceph</tt> den Vorgang zum Ausgleichen <tt>Recovery/ Rebalance:</tt> (bis zum Ende) verfolgen)
* …


== Containerisierung ==
== Containerisierung ==
Zeile 279: Zeile 215:


====== Änderung der Konfiguration von Instanzen der Containerisierung von privilegiert zu unprivilegiert durch backup and restore ======
====== Änderung der Konfiguration von Instanzen der Containerisierung von privilegiert zu unprivilegiert durch backup and restore ======
Test durchgeführt von goeranh -> Container und VMs können restored werden, indem man auf den Server(n1-3) klickt und dort auf den Storrage b1 -> aus dieser liste kann dann selbst ein gelöschter Container wiederhergestellt werden. Es wurde das Bedenken geäußert, dass VM-IDs kollidieren, wenn ein Container gelöscht wird, ein neuer erstellt und dann der alte Container wieder restored wird. In dieser Situation wird einfach eine neue ID vergeben.


  Ungetestet!
  Ungetestet!
Zeile 407: Zeile 341:
(bei Problemen beim) Starten vom bisherigen Container, der geändert wurde, mit Aufzeichnung von möglichen Problemen
(bei Problemen beim) Starten vom bisherigen Container, der geändert wurde, mit Aufzeichnung von möglichen Problemen
:: <code>pct start --debug=1 321</code>
:: <code>pct start --debug=1 321</code>
=== Problembehebung bei der Containerisierung ===
: aka Troubleshooting pct
==== Probĺemerkennung bei der Containerisierung ====
Starten von einem Container (LXC) im Modus für die Fehlerbehehung
: <code>lxc-start -n <Containernummer> -F -l DEBUG</code>
==== Problem, dass ein Container lange nicht startet ====
; Problem zur (falschen) Konfiguration zur Verwendung von IPv6:
: Wenn versehentlich bei der Erstellung von einem Container bei ''Network'' was zu IPv6 (beispielsweise DHCP) konfiguriert und damit aktiviert wurde, dann wird beim Starten vom Container mehrere (etwa 5) Minuten versucht IPv6 zu verwenden. Leider gibt es in unserer Umgebung ([[Server HTW Dresden]]) kein IPv6.
: Das Problem lässt sich beheben in dem bei der Konfiguration bei <tt>IPv6</tt> die voreingestellte Option <tt>Static</tt> ausgewählt wird und Einträge zu IPv6 (beispielsweise bei <tt>IPv6/CIDR</tt>) bestehen.
: Im Übrigen kann dazu auch die Datei für die Konfiguration vom Container (beispielsweise mit der Nummer ''1337'') gesichtet und womöglich angepasst werden.
:: <code>less /etc/pve/lxc/1337.conf</code>
:: <code>nano /etc/pve/lxc/1337.conf</code>


=== unterschiedliche Container ===
=== unterschiedliche Container ===
Zeile 440: Zeile 357:


==== Containerisierung für [[NixOS]] ====
==== Containerisierung für [[NixOS]] ====
===== Erstellung von Instanzen der Containerisierung für [[NixOS]] =====


Aktuell (2020-03) gibt es keine für [[Server/Proxmox]] angebotene Vorlage für das Betriebssystem [[NixOS]].
Aktuell (2020-03) gibt es keine für [[Server/Proxmox]] angebotene Vorlage für das Betriebssystem [[NixOS]].


* <s>https://nixos.wiki/wiki/Proxmox_Linux_Container</s>
* https://nixos.wiki/wiki/Proxmox_Linux_Container
* https://nixos.wiki/wiki/Proxmox_Virtual_Environment#LXC
* https://wiki.c3d2.de/Proxmox#Proxmox_CT_NixOS
* https://wiki.c3d2.de/Proxmox#Proxmox_CT_NixOS
Nachfolgend (2021-10) wurde sich damit dennoch weiter auseinandergesetzt, um zukünftig auch [[NixOS]] (mit der Vielzahl von Vorteilen) verwenden zu können. Seit 2021-10 wurde auch das PVE&nbsp;7 verwendet, weswegen es zuvor vermieden wurde noch etwas für PVE&nbsp;6 gangbar zu machen, was nachfolgend vielleicht nicht mehr funktioniert und viel Aufwand für die Überwindung von Hindernissen zur Nutzung und Weiternutzung entsteht.
* https://pro.stura.htw-dresden.de/issues/856
* https://nixos.wiki/wiki/Talk:Proxmox_Linux_Container
<s>
(2022-06) NixOS 22.05 wurde zunächst auf dem Testserver als Container installiert. Dabei muss man beachten, dass der Container nicht in der Web-GUI erstellt werden darf, sondern mittels folgendem Command:
<code>pct create $CTID$ cephfs:vztmpl/nixos-22.05.tar.xz --ostype unmanaged --net0 name=eth0,firewall=1,ip=dhcp,bridge=vmbr0 --storage $STORRAGE$ --unprivileged 1 --features nesting=1</code>
Dabei sollte natürlich $CTID$ durch eine im Proxmox noch freie Container-ID ersetzt werden und $STORRAGE$ durch den gewünschten speicherort für den neuen Container (der Container-Template Name kann sich auch ändern).
* https://pve.proxmox.com/pve-docs/pct.1.html
</s>
https://hydra.nixos.org/job/nixos/release-22.05/nixos.proxmoxLXC.x86_64-linux
====== Besonderheiten Erstellung von Instanzen der Containerisierung für [[NixOS]] ======
* Enter Nixos Konsole wenn tty ausgewählt ist  ". /etc/profile"
; Options:
:; Console mode: <tt>console</tt> (statt <tt>Default (tty)</tt>)
===== Containerisierung für [[NixOS]] Aktualisierung =====
====== Containerisierung für [[NixOS]] Aktualisierung 21.11 ======
(optionales) Auflisten aller verfügbaren Kanäle (für Software) für [[NixOS]]
: <code>nix-channel --list | grep nixos</code>
<pre>
nixos https://nixos.org/channels/nixos-21.05
</pre>
Hinzufügen des neuen (nachfolgenden) Kanals (für Software) für [[NixOS]] (beispielhaft ''21.11'')
: <code>nix-channel --add https://nixos.org/channels/nixos-21.11 nixos</code>
: <code>nixos-rebuild switch --upgrade</code>
<pre>
unpacking channels...
</pre>
<pre></pre>
<pre>
==================== Results ===================
No issues found.
==================== Summary ===================
Total issues:
    Unspecified: 0
    Low: 0
    Medium: 0
    High: 0
</pre>
<pre></pre>
<pre>
ln: failed to create symbolic link '/sbin/init': No such file or directory
Activation script snippet 'installInitScript' failed (1)
restarting systemd...
setting up tmpfiles
reloading the following units: dbus.service, dev-mqueue.mount, firewall.service, sys-fs-fuse-connections.mount
Job failed. See "journalctl -xe" for details.
restarting the following units: dhcpcd.service, network-addresses-eth0.service, nginx.service, systemd-journald.service
starting the following units: acme-fixperms.service, acme-pro.stura.htw-dresden.de.timer, network-local-commands.service, network-setup.service, nix-daemon.socket, nscd.service, resolvconf.service, systemd-sysctl.service, systemd-tmpfiles-clean.timer, systemd-tmpfiles-setup-dev.service
warning: error(s) occurred while switching to the new configuration
</pre>
: <code>nixos-rebuild switch --upgrade</code>
<pre>
unpacking channels...
created 1 symlinks in user environment
building Nix...
building the system configuration...
activating the configuration...
setting up /etc...
ln: failed to create symbolic link '/sbin/init': No such file or directory
Activation script snippet 'installInitScript' failed (1)
setting up tmpfiles
warning: error(s) occurred while switching to the new configuration
</pre>
: <code>mkdir /sbin/</code>
: <code>nixos-rebuild switch --upgrade</code>
<pre></pre>


==== Containerisierung für bestimmte Anwendungen ====
==== Containerisierung für bestimmte Anwendungen ====
Zeile 566: Zeile 399:
* [[#Virtualisierung RancherOS]]
* [[#Virtualisierung RancherOS]]
* [[#Virtualisierung CoreOS]]
* [[#Virtualisierung CoreOS]]
==== Containerisierung für Kubernetes ====
* https://kvaps.medium.com/run-kubernetes-in-lxc-container-f04aa94b6c9c
* https://gist.github.com/kvaps/25f730e0ec39dd2e5749fb6b020e71fc


==== Containerisierung mit Debian 10 ====
==== Containerisierung mit Debian 10 ====

Bitte beachte, dass alle Beiträge zu Wiki StuRa HTW Dresden von anderen Mitwirkenden bearbeitet, geändert oder gelöscht werden können. Reiche hier keine Texte ein, falls du nicht willst, dass diese ohne Einschränkung geändert werden können.

Du bestätigst hiermit auch, dass du diese Texte selbst geschrieben hast oder diese von einer gemeinfreien Quelle kopiert hast (weitere Einzelheiten unter StuRa HTW Dresden:Urheberrechte). ÜBERTRAGE OHNE GENEHMIGUNG KEINE URHEBERRECHTLICH GESCHÜTZTEN INHALTE!

Bitte beantworte die folgende Frage, um diese Seite speichern zu können (weitere Informationen):

Abbrechen Bearbeitungshilfe (wird in einem neuen Fenster geöffnet)