Bearbeiten von „Server/Proxmox Virtual Environment

Zur Navigation springen Zur Suche springen
Warnung: Du bist nicht angemeldet. Deine IP-Adresse wird bei Bearbeitungen öffentlich sichtbar. Melde dich an oder erstelle ein Benutzerkonto, damit Bearbeitungen deinem Benutzernamen zugeordnet werden. Ein eigenes Benutzerkonto hat eine ganze Reihe von Vorteilen.

Die Bearbeitung kann rückgängig gemacht werden. Bitte prüfe den Vergleich unten, um sicherzustellen, dass du dies tun möchtest, und veröffentliche dann unten deine Änderungen, um die Bearbeitung rückgängig zu machen.

Aktuelle Version Dein Text
Zeile 11: Zeile 11:
Standardmäßig ist das web user interface per https auf Port ''8006'' zu erreichen.<sup>[https://pve.proxmox.com/wiki/Ports]</sup>
Standardmäßig ist das web user interface per https auf Port ''8006'' zu erreichen.<sup>[https://pve.proxmox.com/wiki/Ports]</sup>


=== Aktualisierung ===
=== sources.list ===
 
==== Aktualisierung innerhalb von Hauptversionen ====
 
(''Server View'')
: (''Dataceenter'')
:: (jeweiliger) Server
::: Reiter ''Updates''
:::: Reiter ''Refresh''
:::: Reiter ''Upgrade''
 
* https://pve.proxmox.com/pve-docs/pve-admin-guide.html#_system_software_updates
* https://pve.proxmox.com/pve-docs/pve-admin-guide.html#ha_manager_package_updates
 
==== Aktualisierung zwischen Hauptversionen ====
 
=== Quellen für Pakete ===
 
==== sources.list ====
 
: Proxmox Version 6
: in Anlehnung an [https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_Busterh#Adapt_your_sources.list Proxmox:Wiki ''Install Proxmox VE on Debian Buster#Adapt your sources.list'']
 
Wahrnehmen des Fehlers (401) bei Beziehen der Quelle ''enterprise.proxmox.com''
:: Für die Quelle ''enterprise.proxmox.com'' bedarf es Zugangsdaten (die entsprechend zu vergüten sind). Ohne Zugangsdaten wird der Code (für den Fehler) 401 (fehlerhafte Autorisierung) ausgeliefert.
: <code>apt update</code>
<pre>
Hit:1 http://security.debian.org/debian-security buster/updates InRelease
Hit:2 http://deb.debian.org/debian buster InRelease
Hit:3 http://deb.debian.org/debian buster-updates InRelease
Hit:4 http://download.proxmox.com/debian/ceph-nautilus buster InRelease                           
Hit:5 http://download.proxmox.com/debian/pve buster InRelease                                     
Err:6 https://enterprise.proxmox.com/debian/pve buster InRelease
  401  Unauthorized [IP: 2a01:7e0:0:424::249 443]
Reading package lists... Done                               
E: Failed to fetch https://enterprise.proxmox.com/debian/pve/dists/buster/InRelease  401  Unauthorized [IP: 2a01:7e0:0:424::249 443]
E: The repository 'https://enterprise.proxmox.com/debian/pve buster InRelease' is not signed.
N: Updating from such a repository can't be done securely, and is therefore disabled by default.
N: See apt-secure(8) manpage for repository creation and user configuration details.
</pre>
Anzeigen des Datei mit dem Eintrag für diese Quelle
: <code>cat /etc/apt/sources.list.d/pve-enterprise.list</code>
<pre>
deb https://enterprise.proxmox.com/debian/pve buster pve-enterprise
</pre>
Hinzufügen einer (vergleichbaren) alternativen Quelle ohne sich registrieren zu müssen
: <code>echo "deb http://download.proxmox.com/debian/pve buster pve-no-subscription" > /etc/apt/sources.list.d/pve-no-subscription.list</code>
: <code>wget http://download.proxmox.com/debian/proxmox-ve-release-6.x.gpg -O /etc/apt/trusted.gpg.d/proxmox-ve-release-6.x.gpg</code>
<pre></pre>
<pre>
Resolving download.proxmox.com (download.proxmox.com)... 2a01:7e0:0:424::249, 212.224.123.70
Connecting to download.proxmox.com (download.proxmox.com)|2a01:7e0:0:424::249|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 1202 (1.2K) [application/octet-stream]
Saving to: '/etc/apt/trusted.gpg.d/proxmox-ve-release-6.x.gpg'
 
/etc/apt/trusted.gpg.d/proxmo 100%[===============================================>]  1.17K  --.-KB/s    in 0s     
</pre>
<pre></pre>
: <code>cat /etc/apt/sources.list.d/pve-install-repo.list</code>
<pre>
deb http://download.proxmox.com/debian/pve buster pve-no-subscription
</pre>
: <code>mv /etc/apt/sources.list.d/pve-enterprise.list /root/pve-enterprise.list</code>
: <code>mv /etc/apt/sources.list.d/pve-install-repo.list /root/pve-install-repo.list</code>
: <code>apt update</code>
<pre>
Hit:1 http://security.debian.org/debian-security buster/updates InRelease
Hit:2 http://deb.debian.org/debian buster InRelease
Hit:3 http://deb.debian.org/debian buster-updates InRelease
Hit:4 http://download.proxmox.com/debian/ceph-nautilus buster InRelease
Reading package lists... Done         
Building dependency tree     
Reading state information... Done
10 packages can be upgraded. Run 'apt list --upgradable' to see them.
</pre>
: <code>apt upgrade</code>
<pre>
</pre>
 
----


: Proxmox Version 5
: Proxmox Version 5
; versteckt:
<!--
: in Anlehnung an [https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_Stretch#Adapt_your_sources.list Proxmox:Wiki ''Install Proxmox VE on Debian Stretch#Adapt your sources.list'']
: in Anlehnung an [https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_Stretch#Adapt_your_sources.list Proxmox:Wiki ''Install Proxmox VE on Debian Stretch#Adapt your sources.list'']


Zeile 154: Zeile 72:
<pre>
<pre>
</pre>
</pre>
!-->


=== ZFS ===
=== ZFS ===
Zeile 196: Zeile 113:


==== Proxmox Storage Type ''CephFS'' ====
==== Proxmox Storage Type ''CephFS'' ====
: <code>ls /mnt/pve/</code>
<pre>
cephfs
</pre>
: <code>ls /mnt/pve/cephfs/</code>


==== Proxmox Storage Type ''RDB'' ====
==== Proxmox Storage Type ''RDB'' ====
<code>ls /dev/rbd/</code>
<pre>
storage
</pre>
<code>ls /dev/rbd/storage/</code>


==== Proxmox Storage Type ''ZFS'' ====
==== Proxmox Storage Type ''ZFS'' ====
== Proxmox Ceph ==
[[c3d2:Proxmox#Proxmox Ceph]]
=== Ceph ===
==== Ceph Dashboard ====
[[c3d2:Proxmox#Ceph Dashboard]]
=== Ceph rebalance ===
=== Ceph recovery ===
https://docs.ceph.com/en/latest/dev/osd_internals/backfill_reservation/
https://www.suse.com/support/kb/doc/?id=000019693
https://docs.ceph.com/en/latest/rados/configuration/osd-config-ref/#backfilling
https://docs.ceph.com/en/latest/rados/configuration/osd-config-ref/#backfilling
=== Proxmox Ceph Verwaltung von Geräten ===
===== Ersetzen von Geräten für Massenspeicher bei Proxmox Ceph =====
https://pro.stura.htw-dresden.de/issues/839
===== Erweiterung mit Geräten für Massenspeicher bei Proxmox Ceph =====
* Gerät für Massenspeicher (Festplatte) in einen freien Schacht einschieben
* Verfügbarkeit (Ist das Gerät beim Server so angebunden, dass darauf zugegriffen werden kann?) prüfen
*: Beim entsprechenden Node bei <tt>Disks</tt> sollte ein neues Gerät als fortlaufender Buchstabe in der Spalte <tt>Device</tt> beispielsweise als <tt>/dev/sd''x''</tt> angezeigt werden.
* Bereinigung aller möglichen Partitionen
*: <code>fdisk <tt>/dev/sd''x''</tt></code>
*:* Entfernen aller möglichen Partitionen mit <code>d</code>
*:* (nach der Entfernung aller möglichen Partitionen) Erstellen einer neuen Tabelle für die Partitionierung (GPT) mit <code>g</code>
*:* (nach der Erstellung einer neuen Tabelle für die Partitionierung (GPT)) Anwendung der gemachten Änderungen durch das Schreiben mit <code>w</code>
* (um die Änderung für das System richtig zu erkennen) Neustarten des Systems, etwa mit <code>reboot</code>
* Verfügbarkeit (Ist das Gerät beim Server vielleicht anders angebunden, um darauf zugegriffen zu können?) prüfen
*: Beim entsprechenden Node bei <tt>Disks</tt> sollte ein das neue Gerät als fortlaufender Buchstabe nach den Geräten des Systems (vor den Geräten für Ceph) in der Spalte ''Device'' beispielsweise als <tt>/dev/sd''c''</tt> angezeigt werden.
* beim entsprechenden Node bei <tt>Ceph</tt> und <tt>OSD</tt> die Schaltfläche <tt>Create: OSD</tt> anwählen
** beim Feld für die Auswahl <tt>Disks:</tt> das neue Gerät beispielsweise <tt>/dev/sd''c''</tt> anwählen
** (beim Feld für die Auswahl <tt>DB Disks:</tt> nichts anwählen (das Feld leer lassen)
** die Schaltfläche <tt>Create</tt> anwählen
* bei <tt>Ceph</tt> und <tt>OSD</tt> die Schaltfläche <tt>Reload</tt> anwählen
* Verfügbarkeit (Ist das Gerät als OSD bei Ceph angebunden?) prüfen
* (beim <tt>Datacenter</tt> bei <tt>Ceph</tt> den Vorgang zum Ausgleichen <tt>Recovery/ Rebalance:</tt> (bis zum Ende) verfolgen)
* …


== Containerisierung ==
== Containerisierung ==
Zeile 268: Zeile 125:
: <code>pveam available</code>
: <code>pveam available</code>


Bei [[{{PAGENAME}}]] wird nach [[#Container für bestimmte Betriebssysteme]] ''system'' (also ohne einen konkreten Zweck der Anwendung angedacht zu haben) und [[#Container für bestimmte Anwendungen]] ''turnkeylinux''. (Genau genommen gibt es noch ''mail'', für die [[#Containerisierung für Proxmox Mail Gateway]].)
Bei [[{{PAGENAME}}]] wird nach [[#Container für bestimmte Betriebssysteme]] ''system'' (also ohne einen konkreten Zweck der Anwendung angedacht zu haben) und [[#Container für bestimmte Anwendungen]] ''turnkeylinux''.
 
=== Erstellung von Instanzen der Containerisierung ===
 
=== Konfiguration von Instanzen der Containerisierung ===
 
==== Änderung der Konfiguration von Instanzen der Containerisierung ====
 
===== Änderung der Konfiguration von Instanzen der Containerisierung von privilegiert zu unprivilegiert =====
 
====== Änderung der Konfiguration von Instanzen der Containerisierung von privilegiert zu unprivilegiert durch backup and restore ======
 
Test durchgeführt von goeranh -> Container und VMs können restored werden, indem man auf den Server(n1-3) klickt und dort auf den Storrage b1 -> aus dieser liste kann dann selbst ein gelöschter Container wiederhergestellt werden. Es wurde das Bedenken geäußert, dass VM-IDs kollidieren, wenn ein Container gelöscht wird, ein neuer erstellt und dann der alte Container wieder restored wird. In dieser Situation wird einfach eine neue ID vergeben.
 
Ungetestet!
 
* https://pve.proxmox.com/wiki/Unprivileged_LXC_containers#Creation
 
: <code>pct restore 321 /mnt/pve/cephfs/dump/vzdump-lxc-321-2020_10_11-00_14_05.tar.zst -ignore-unpack-errors 1 -unprivileged</code>
 
====== Änderung der Konfiguration von Instanzen der Containerisierung von privilegiert zu unprivilegiert durch chown ======
 
 
Der Test (2020-10-10 -11) schlug fehl!
Der Test der Änderung fand bei einem Container nach der [[{{ns:100}}:Server/TurnKey#Aktualisierung von TurnKey 15 auf TurnKey 16]] ([[{{ns:100}}:Server/Nextcloud#TurnKey 15]]) statt.
 
----
 
; leidiges Ergebnis:
 
: <code>systemctl</code>
<pre></pre>
<pre>
● sys-kernel-config.mount              loaded failed failed    Kernel Configuration File System                                           
● sys-kernel-debug.mount              loaded failed failed    Kernel Debug File System                                                   
</pre>
<pre></pre>
<pre>
● mariadb.service                      loaded failed failed    MariaDB 10.3.23 database server                                             
</pre>
<pre></pre>
<pre>
● systemd-update-utmp.service          loaded failed failed    Update UTMP about System Boot/Shutdown                                     
</pre>
<pre></pre>
<pre>
● systemd-journald-audit.socket        loaded failed failed    Journal Audit Socket                                                       
</pre>
<pre></pre>
<pre>
● systemd-update-utmp.service          loaded failed failed    Update UTMP about System Boot/Shutdown                                     
</pre>
<pre></pre>
<pre>
● systemd-journald-audit.socket        loaded failed failed    Journal Audit Socket                                                       
</pre>
<pre></pre>
<pre>
● sys-kernel-config.mount              loaded failed failed    Kernel Configuration File System                                           
● sys-kernel-debug.mount              loaded failed failed    Kernel Debug File System                                                   
</pre>
<pre></pre>
<pre>
● mariadb.service                      loaded failed failed    MariaDB 10.3.23 database server                                             
</pre>
<pre></pre>
 
: <code>systemctl status mariadb.service</code>
<pre>
● mariadb.service - MariaDB 10.3.23 database server
  Loaded: loaded (/lib/systemd/system/mariadb.service; enabled; vendor preset: enabled)
  Active: failed (Result: exit-code) since Sun 2020-10-11 08:59:26 CEST; 47s ago
    Docs: man:mysqld(8)
          https://mariadb.com/kb/en/library/systemd/
  Process: 217 ExecStartPre=/usr/bin/install -m 755 -o mysql -g root -d /var/run/mysqld (code=exited, status=0/SUCCESS)
  Process: 235 ExecStartPre=/bin/sh -c systemctl unset-environment _WSREP_START_POSITION (code=exited, status=0/SUCCESS)
  Process: 247 ExecStartPre=/bin/sh -c [ ! -e /usr/bin/galera_recovery ] && VAR= ||  VAR=`cd /usr/bin/..; /usr/bin/galera_recovery`; [ $? -eq 0 ]  && systemctl set-environment _WSREP_START_POSITION=$VAR || exit 1 (code=exited, status=0/
  Process: 427 ExecStart=/usr/sbin/mysqld $MYSQLD_OPTS $_WSREP_NEW_CLUSTER $_WSREP_START_POSITION (code=exited, status=7)
Main PID: 427 (code=exited, status=7)
  Status: "MariaDB server is down"
 
Oct 11 08:59:22 nextcloud systemd[1]: Starting MariaDB 10.3.23 database server...
Oct 11 08:59:23 nextcloud mysqld[427]: 2020-10-11  8:59:23 0 [Note] /usr/sbin/mysqld (mysqld 10.3.23-MariaDB-0+deb10u1) starting as process 427 ...
Oct 11 08:59:26 nextcloud systemd[1]: mariadb.service: Main process exited, code=exited, status=7/NOTRUNNING
Oct 11 08:59:26 nextcloud systemd[1]: mariadb.service: Failed with result 'exit-code'.
Oct 11 08:59:26 nextcloud systemd[1]: Failed to start MariaDB 10.3.23 database server.
</pre>
 
----
 
* https://forum.proxmox.com/threads/31066/#post-261883 (https://forum.proxmox.com/threads/convert-privileged-to-unprivileged-container.31066/#post-261883)
 
Stoppen vom bisherigen Container, der geändert werden soll
: <code>pct stop 321</code>
 
(optionales) Erstellen von einem Snapshot vom bisherigen Container, der geändert werden soll, um im Fall von eines Fehlschlages der Änderung den Container zurücksetzen zu können
 
(optionales) Erstellen von einer Datensicherung vom bisherigen Container, der geändert werden soll, um im Fall von eines Fehlschlages der Wiederherstellung von einem Snapshot den Container wiederherstellen zu können
 
Ersrellen von einem zeitweisen Verzeichnis (in dem die Änderung abgearbeitet werden soll)
: <code>mkdir /tmp/321</code>
 
Einhängen vom Speicher vom bisherigen Container, der geändert werden soll, ohne den Container zu starten, um die Dateien ändern zu können (Der Ablageort - im Beispiel ''/dev/rbd/storage/vm-321-disk-0'' - muss ermittelt werden. Im Beispiel ist der [[#Proxmox Storage Content Container]] im [[#Proxmox Storage Type RDB]] ''storage'' abgelegt. Im Beispiel ist die ID von der [[#Erstellung von Instanzen der Containerisierung]] ''321''.)
: <code>mount -o loop /dev/rbd/storage/vm-321-disk-0 /tmp/321</code>
 
(massenhaftes) Ändern vom Recht fürs Eigentum von Dateien beim bisherigen Container
Achtung!
Die Ausführung dauert über 1 Stunde!
: <code>find /tmp/321 -type f | while read S; do U="$(ls -ln "${S}" | awk '{print$3}')"; G="$(ls -ln "${S}" | awk '{print$4}')"; F=100000; chown "${F:0: -${#U}}${U}:${F:0: -${#G}}${G}" "${S}"; done</code>
 
(massenhaftes) Ändern vom Recht fürs Eigentum von Dateien beim bisherigen Container
Achtung!
Die Ausführung dauert über 1 Stunde!
: <code>find /tmp/321 -type d | while read S; do U="$(ls -lnd "${S}" | awk '{print$3}')"; G="$(ls -lnd "${S}" | awk '{print$4}')"; F=100000; chown "${F:0: -${#U}}${U}:${F:0: -${#G}}${G}" "${S}"; done</code>
 
Löschen von <code>/tmp/321/var/spool/postfix/dev/-random</code> beim bisherigen Container
: <code>[ -e /tmp/321/var/spool/postfix/dev/-random ] && rm -ri /tmp/321/var/spool/postfix/dev/-random</code>
Löschen von <code>/var/spool/postfix/dev/-urandom</code> beim bisherigen Container
: <code>[ -e /tmp/321/var/spool/postfix/dev/-urandom ] && rm -ri /tmp/321/var/spool/postfix/dev/-urandom</code>
 
wenn das Paket <code>sudo</code> installiert ist, Ändern vom Modus von der Datei <code>/usr/bin/sudo</code> beim bisherigen Container
: <code>[ -e /tmp/321/usr/bin/sudo ] && chmod u+s /tmp/321/usr/bin/sudo</code>
 
Aushängen vom Speicher vom bisherigen Container, der geändert wurde, um den Container geändert in Betrieb nehmen zu können
: <code>umount /tmp/321</code>
 
Änderung der
Achtung!
Das ist ein wenig spooky.
Einfach unten drunter schreiben?
Es gibt (auch) verschiedene Abschnitte für jeden Snapshot.
: <code>echo -e "\nunprivileged: 1" >> /etc/pve/lxc/321.conf</code>
:: <code>nano /etc/pve/lxc/321.conf</code>
 
Starten vom bisherigen Container, der geändert wurde
: <code>pct start 321</code>
 
(bei Problemen beim) Starten vom bisherigen Container, der geändert wurde, mit Aufzeichnung von möglichen Problemen
:: <code>pct start --debug=1 321</code>
 
=== Problembehebung bei der Containerisierung ===
: aka Troubleshooting pct
 
==== Probĺemerkennung bei der Containerisierung ====
 
Starten von einem Container (LXC) im Modus für die Fehlerbehehung
: <code>lxc-start -n <Containernummer> -F -l DEBUG</code>
 
==== Problem, dass ein Container lange nicht startet ====
 
; Problem zur (falschen) Konfiguration zur Verwendung von IPv6:
: Wenn versehentlich bei der Erstellung von einem Container bei ''Network'' was zu IPv6 (beispielsweise DHCP) konfiguriert und damit aktiviert wurde, dann wird beim Starten vom Container mehrere (etwa 5) Minuten versucht IPv6 zu verwenden. Leider gibt es in unserer Umgebung ([[Server HTW Dresden]]) kein IPv6.
: Das Problem lässt sich beheben in dem bei der Konfiguration bei <tt>IPv6</tt> die voreingestellte Option <tt>Static</tt> ausgewählt wird und Einträge zu IPv6 (beispielsweise bei <tt>IPv6/CIDR</tt>) bestehen.
: Im Übrigen kann dazu auch die Datei für die Konfiguration vom Container (beispielsweise mit der Nummer ''1337'') gesichtet und womöglich angepasst werden.
:: <code>less /etc/pve/lxc/1337.conf</code>
:: <code>nano /etc/pve/lxc/1337.conf</code>
 
=== unterschiedliche Container ===


==== Containerisierung für bestimmte Betriebssysteme ====
==== Containerisierung für bestimmte Betriebssysteme ====
Zeile 440: Zeile 140:


==== Containerisierung für [[NixOS]] ====
==== Containerisierung für [[NixOS]] ====
===== Erstellung von Instanzen der Containerisierung für [[NixOS]] =====


Aktuell (2020-03) gibt es keine für [[Server/Proxmox]] angebotene Vorlage für das Betriebssystem [[NixOS]].
Aktuell (2020-03) gibt es keine für [[Server/Proxmox]] angebotene Vorlage für das Betriebssystem [[NixOS]].


* <s>https://nixos.wiki/wiki/Proxmox_Linux_Container</s>
* https://nixos.wiki/wiki/Proxmox_Linux_Container
* https://nixos.wiki/wiki/Proxmox_Virtual_Environment#LXC
* https://wiki.c3d2.de/Proxmox#Proxmox_CT_NixOS
* https://wiki.c3d2.de/Proxmox#Proxmox_CT_NixOS
Nachfolgend (2021-10) wurde sich damit dennoch weiter auseinandergesetzt, um zukünftig auch [[NixOS]] (mit der Vielzahl von Vorteilen) verwenden zu können. Seit 2021-10 wurde auch das PVE&nbsp;7 verwendet, weswegen es zuvor vermieden wurde noch etwas für PVE&nbsp;6 gangbar zu machen, was nachfolgend vielleicht nicht mehr funktioniert und viel Aufwand für die Überwindung von Hindernissen zur Nutzung und Weiternutzung entsteht.
* https://pro.stura.htw-dresden.de/issues/856
* https://nixos.wiki/wiki/Talk:Proxmox_Linux_Container
<s>
(2022-06) NixOS 22.05 wurde zunächst auf dem Testserver als Container installiert. Dabei muss man beachten, dass der Container nicht in der Web-GUI erstellt werden darf, sondern mittels folgendem Command:
<code>pct create $CTID$ cephfs:vztmpl/nixos-22.05.tar.xz --ostype unmanaged --net0 name=eth0,firewall=1,ip=dhcp,bridge=vmbr0 --storage $STORRAGE$ --unprivileged 1 --features nesting=1</code>
Dabei sollte natürlich $CTID$ durch eine im Proxmox noch freie Container-ID ersetzt werden und $STORRAGE$ durch den gewünschten speicherort für den neuen Container (der Container-Template Name kann sich auch ändern).
* https://pve.proxmox.com/pve-docs/pct.1.html
</s>
https://hydra.nixos.org/job/nixos/release-22.05/nixos.proxmoxLXC.x86_64-linux
====== Besonderheiten Erstellung von Instanzen der Containerisierung für [[NixOS]] ======
* Enter Nixos Konsole wenn tty ausgewählt ist  ". /etc/profile"
; Options:
:; Console mode: <tt>console</tt> (statt <tt>Default (tty)</tt>)
===== Containerisierung für [[NixOS]] Aktualisierung =====
====== Containerisierung für [[NixOS]] Aktualisierung 21.11 ======
(optionales) Auflisten aller verfügbaren Kanäle (für Software) für [[NixOS]]
: <code>nix-channel --list | grep nixos</code>
<pre>
nixos https://nixos.org/channels/nixos-21.05
</pre>
Hinzufügen des neuen (nachfolgenden) Kanals (für Software) für [[NixOS]] (beispielhaft ''21.11'')
: <code>nix-channel --add https://nixos.org/channels/nixos-21.11 nixos</code>
: <code>nixos-rebuild switch --upgrade</code>
<pre>
unpacking channels...
</pre>
<pre></pre>
<pre>
==================== Results ===================
No issues found.
==================== Summary ===================
Total issues:
    Unspecified: 0
    Low: 0
    Medium: 0
    High: 0
</pre>
<pre></pre>
<pre>
ln: failed to create symbolic link '/sbin/init': No such file or directory
Activation script snippet 'installInitScript' failed (1)
restarting systemd...
setting up tmpfiles
reloading the following units: dbus.service, dev-mqueue.mount, firewall.service, sys-fs-fuse-connections.mount
Job failed. See "journalctl -xe" for details.
restarting the following units: dhcpcd.service, network-addresses-eth0.service, nginx.service, systemd-journald.service
starting the following units: acme-fixperms.service, acme-pro.stura.htw-dresden.de.timer, network-local-commands.service, network-setup.service, nix-daemon.socket, nscd.service, resolvconf.service, systemd-sysctl.service, systemd-tmpfiles-clean.timer, systemd-tmpfiles-setup-dev.service
warning: error(s) occurred while switching to the new configuration
</pre>
: <code>nixos-rebuild switch --upgrade</code>
<pre>
unpacking channels...
created 1 symlinks in user environment
building Nix...
building the system configuration...
activating the configuration...
setting up /etc...
ln: failed to create symbolic link '/sbin/init': No such file or directory
Activation script snippet 'installInitScript' failed (1)
setting up tmpfiles
warning: error(s) occurred while switching to the new configuration
</pre>
: <code>mkdir /sbin/</code>
: <code>nixos-rebuild switch --upgrade</code>
<pre></pre>


==== Containerisierung für bestimmte Anwendungen ====
==== Containerisierung für bestimmte Anwendungen ====
Zeile 566: Zeile 182:
* [[#Virtualisierung RancherOS]]
* [[#Virtualisierung RancherOS]]
* [[#Virtualisierung CoreOS]]
* [[#Virtualisierung CoreOS]]
==== Containerisierung für Kubernetes ====
* https://kvaps.medium.com/run-kubernetes-in-lxc-container-f04aa94b6c9c
* https://gist.github.com/kvaps/25f730e0ec39dd2e5749fb6b020e71fc


==== Containerisierung mit Debian 10 ====
==== Containerisierung mit Debian 10 ====

Bitte beachte, dass alle Beiträge zu Wiki StuRa HTW Dresden von anderen Mitwirkenden bearbeitet, geändert oder gelöscht werden können. Reiche hier keine Texte ein, falls du nicht willst, dass diese ohne Einschränkung geändert werden können.

Du bestätigst hiermit auch, dass du diese Texte selbst geschrieben hast oder diese von einer gemeinfreien Quelle kopiert hast (weitere Einzelheiten unter StuRa HTW Dresden:Urheberrechte). ÜBERTRAGE OHNE GENEHMIGUNG KEINE URHEBERRECHTLICH GESCHÜTZTEN INHALTE!

Bitte beantworte die folgende Frage, um diese Seite speichern zu können (weitere Informationen):

Abbrechen Bearbeitungshilfe (wird in einem neuen Fenster geöffnet)