• Pool verkleinern

    From Kai Richter@2:240/77 to Alle on Sun Jan 11 15:15:52 2026
    Hallo Echo!

    Ich habe ein selbstgemachtes Home NAS von Debian auf FreeBSD 15 migriert. Unter Linux lief eine 250GB boot Platte mit zwei Daten Platten unter LVM.

    Vermutlich wegen BIOS trouble (Installer konnte nicht von 512GB USB Sticks booten) und weil ich mich mit EFI Boot insbesondere bei FreeBSD nicht auskenne, habe ich eine "normale" Installtion mit dem Installer einer neuen 4TB Platte gemacht.

    Die habe ich bestimmt gut ein Dutzend mal wiederholt, weil es mir nicht gelungen ist eine kleine ZFS Partition anzulegen. Die "AUTO" Funktionen des Installers reissen die komplette Platte an sich, selbst wenn ich die Partitionierung vorher richtig angelegt habe.

    Ursprünglich wollte ich ein raidz1 auf einer HDD aufbauen. Auf Grund der ZFS Pool Management Einschränkungen (im Vergleich zu LVM) habe ich dazu vier Paritionen anlegen wollen, die ich dann schrittweise durch echte HDD ersetzt hätte, soweit ich die Daten aus dem LVM verschoben hätte.

    Weil das nicht ging, habe ich mich notgedrungen wenigstens für einen mirror entschieden, weil man diesen mit einem ZFS Pool anfangen kann und den Mirror nachträglich hinzufügen kann.

    Damit ich auch das System einfach mit in den Mirror bekomme, habe ich mich für ZFS-on-root entschieden. Ich könnte den Mirror einfach attachen, nur leider hat die Bootplatte 4TB und die vorhandenen Platten haben jeweils 3TB.

    Einen neuen Pool einrichten und die Datasets mit zfs send|receive rüberschieben bekomme ich hin, aber das allein dürfte für legacy boot wohl nicht reichen.

    Lange Rede, kurze Frage: Wie bekomme ich die 3TB ohne Installer bootfähig mit ZFS-on-root?

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Attention visitor, speed limit on this planet: mach 5 (2:240/77)
  • From Gerhard Strangar@2:240/2188.575 to Kai Richter on Mon Jan 12 07:34:08 2026
    Am 11 Jan 26 15:15:52 schrob Kai Richter an Alle zum Thema
    <Pool verkleinern>

    Lange Rede, kurze Frage: Wie bekomme ich die 3TB ohne Installer
    bootfaehig mit ZFS-on-root?

    zpool set bootfs auf das zu bootende Filesystem setzen, falls d send/receive das nicht mitgenommen hat, gpart bootcode fuer den loader aufrufen und /boot/loader.conf anpassen, wenn Du den neuen Pool nicht umbenennst.
    Genauer steht's hier: https://it-notes.dragas.net/2024/09/16/moving-freebsd-installation-new-host-vm/

    Ich wuerde den Bootloder installieren, beim bisherigen Pool das bootfs entfernen und dann beide Pools mit dem export-Kommando umbenennen, so dass der neue so heisst wie frueher der alte.


    Tschoe mit Oe
    Gerhard
    ---
    * Origin: (2:240/2188.575)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Mon Jan 12 18:53:30 2026
    Hello Kai!

    11 Jan 26 15:15, Kai Richter wrote to Alle:

    Lange Rede, kurze Frage: Wie bekomme ich die 3TB ohne Installer
    bootfähig mit ZFS-on-root?

    Ich weiß, daß Dir das jetzt keine Hilfe ist, aber trotzdem danke für die Bestätigung meiner bisherigen Vorgehensweise, root lieber auf UFS zu installieren und von diesem ganzen root-on-zfs Krams lieber genauso die Finger zu lassen wie von der automatischen Partitionierung des Installers. Ich habe ja noch nicht einmal die Problemstellung nachvollziehen können...


    Regards,
    Gerrit

    ... 6:53PM up 402 days, 2 hrs, 9 users, load averages: 0.54, 0.44, 0.48

    --- msged/fbsd 6.3 2021-12-02
    * Origin: So come and try to tell me (2:240/12)
  • From Kai Richter@2:240/77 to Gerhard Strangar on Tue Jan 13 15:28:18 2026
    Hallo Gerhard!

    Am 12 Jan 26, Gerhard Strangar schrieb an Kai Richter:

    Lange Rede, kurze Frage: Wie bekomme ich die 3TB ohne Installer
    bootfaehig mit ZFS-on-root?

    gpart bootcode fuer den loader aufrufen

    Das war der Part den ich übersehen habe, Danke.

    Ich wuerde den Bootloder installieren, beim bisherigen Pool das
    bootfs entfernen und dann beide Pools mit dem export-Kommando
    umbenennen, so dass der neue so heisst wie frueher der alte.

    Hm, es soll doch ein Mirror bootfähig werden. Da müsste der Pool Name doch identisch sein? Ach halt, die Anleitung ging ja von system duplication aus.

    Ich werde das bei Gelegenheit mal in der VM durchspielen.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Stirb jung! Am Besten vor der Pupertaet. (2:240/77)
  • From Gerhard Strangar@2:240/2188.575 to Kai Richter on Wed Jan 14 06:44:15 2026
    Am 13 Jan 26 15:28:18 schrob Kai Richter an Gerhard Strangar zum Thema
    <Pool verkleinern>

    Hm, es soll doch ein Mirror bootfaehig werden. Da muesste der Pool Name doch identisch sein?

    Ich dachte, Du wolltest von pool1 mit 2*4 TB auf pool2 mit 2*3 TB wechseln, Aber zpool create wird sich weigern, den neuen Pool so zu nennen, wie den bereits importieren. Und selbst wenn nicht, spaetestens zfs send und receive mit zwei gleichnamigen Pools duerfte unnoetig umstaendlich sein, falls es ueberhaupt geht.



    Tschoe mit Oe
    Gerhard
    ---
    * Origin: (2:240/2188.575)
  • From Kai Richter@2:240/77 to Gerhard Strangar on Thu Jan 15 00:37:08 2026
    Tach Gerhard!

    Am 12 Jan 26, Gerhard Strangar schrieb an Kai Richter:

    Ich wuerde den Bootloder installieren, beim bisherigen Pool das bootfs entfernen und dann beide Pools mit dem export-Kommando umbenennen, so
    dass der neue so heisst wie frueher der alte.

    Ich bekomme es in einer VM nicht hin. Mir fällt schon mal auf, das ein
    "dd if=/dev/da0 bs=512 count=1 of=my-mbr" sich mit keinem mbr in
    /boot/ gleicht.

    Und ich bekomme es nicht hin von der installer shell oder der live-cd den zpool schreibend zu mounten. Der Installer hat auch nicht wie in allen Dokus zu finden vfs.root.mountfrom in der loader.conf eingefügt.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Ihr... Ihr... Boah, ihr Praktiker ey! (2:240/77)
  • From Kai Richter@2:240/77 to Gerhard Strangar on Mon Jan 19 08:54:38 2026
    Hallo Gerhard!

    Am 14 Jan 26, Gerhard Strangar schrieb an Kai Richter:

    Hm, es soll doch ein Mirror bootfaehig werden. Da muesste der Pool
    Name doch identisch sein?

    Ich dachte, Du wolltest von pool1 mit 2*4 TB auf pool2 mit 2*3 TB wechseln, Aber zpool create wird sich weigern, den neuen Pool so zu nennen, wie den bereits importieren. Und selbst wenn nicht,
    spaetestens zfs send und receive mit zwei gleichnamigen Pools duerfte unnoetig umstaendlich sein, falls es ueberhaupt geht.

    Geht nicht, habs probiert. Sogar ein pool copy geht nicht. Ich hatte zuerst mit syncoid (sanoid) ein pool/pool copy versucht, aber soweit ich mich jetzt eingelesen habe, kann dass verwendete zfs send|receive kein overwrite.

    Wenn man näher drüber nachdenkt, dann wird das sogar ganz logisch, weil ZFS ein copy on write System ist. Schaut man auf die zfs send arguments, dann kann das nur snapshots übertragen.

    Ohne destination pool gibt es kein Ziel zum kopieren. Legt man den destination pool an, kann man ihn nicht überschreiben und damit gibt es zwei unterschiedliche Ausgangspunkte, womit ein snapshot nicht an den gleichen Ausgangspunkten ansetzen kann und folglich nicht funktionieren wird.

    Die Lösung ist eigentlich einfach. Wenn man den pool nicht überschreiben kann, dann muss er neu kopiert werden, an einem Ort an dem er noch nicht existiert. Man legt also ein neues leeres dataset an und schon kann man einen pool dort hinein kopieren (syncoid -r pool1 pool2/inbound).

    Im zweiten Schritt schiebt man einfach die datasets ein Verzeichnis höher. Das geht dann mit zfs rename. In der Folge besteht dann das dataset am richtigen Platz und könnte dann mit weiteren zfs send|receive oder syncoid aktuell gehalten werden.

    Das ist zumindest mein Teilerfolg des Wochenendes. Sobald der neue pool jedoch allein System steht, bootet er nicht. Vermutlich habe ich irgendwo einen Zwischenschritt übersehen oder vergessen.

    Hilfreich war das arch-handbook/boot 1.2, weil dort screenshots der boot stages zu sehen sind. Es hängt jetzt im boot2 und der nächste Schritt wäre den loader zu laden. Für den loader habe ich die Befehle gefunden, nur was der boot2 so kann ist mir nicht ersichtlich.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Es heisst Schlafittchen, hat nix mit Schnee zu tun. (2:240/77)
  • From Gerhard Strangar@2:240/2188.575 to Kai Richter on Thu Jan 15 06:39:24 2026
    Am 15 Jan 26 00:37:08 schrob Kai Richter an Gerhard Strangar zum Thema
    <Pool verkleinern>

    Ich bekomme es in einer VM nicht hin. Mir faellt schon mal auf, das ein
    "dd if=/dev/da0 bs=512 count=1 of=my-mbr" sich mit keinem mbr in
    /boot/ gleicht.

    Wenn Du den Bootloader suchst, dann vermutlich in /dev/da0p1, mach mal gpart show.

    Und ich bekomme es nicht hin von der installer shell oder der live-cd
    den zpool schreibend zu mounten. Der Installer hat auch nicht wie in
    allen Dokus zu finden vfs.root.mountfrom in der loader.conf eingefuegt.

    zfs set readonly=off pool/filesystem?



    Tschoe mit Oe
    Gerhard
    ---
    * Origin: (2:240/2188.575)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Thu Jan 15 20:32:03 2026
    Hello Kai!

    15 Jan 26 00:37, Kai Richter wrote to Gerhard Strangar:


    Ich bekomme es in einer VM nicht hin. Mir fällt schon mal auf, das
    ein
    "dd if=/dev/da0 bs=512 count=1 of=my-mbr" sich mit keinem mbr in
    /boot/ gleicht.

    Es ist 2026, und Du installierst einen MBR von ca. 1983, seriously?


    Regards,
    Gerrit

    ... 8:32PM up 405 days, 3:39, 9 users, load averages: 0.82, 0.72, 0.58

    --- msged/fbsd 6.3 2021-12-02
    * Origin: Ideas of lust and dying (2:240/12)
  • From Kai Richter@2:240/77 to Gerhard Strangar on Wed Jan 21 16:07:18 2026
    Hallo Gerhard!

    Am 15 Jan 26, Gerhard Strangar schrieb an Kai Richter:

    Ich bekomme es in einer VM nicht hin. Mir faellt schon mal auf,
    das ein "dd if=/dev/da0 bs=512 count=1 of=my-mbr" sich mit keinem
    mbr in /boot/ gleicht.

    Wenn Du den Bootloader suchst, dann vermutlich in /dev/da0p1, mach mal gpart show.

    Ich wollte wissen welchen MBR und welchen Bootloader der Installer benutzt, um genau denselben händisch zu installieren. Bootloader auf GPT und ZFS on Root sollte gptzfsboot sein, soweit bin ich schon. Befehlszeile um den protected mbr und loader zu installieren habe ich auch, in der boot2 stage sollte der dann hier liegen:

    zfs:tank/ROOT/default:/boot/gptzfsboot
    invalid format

    Hm. Syntax sollte eigentlich passen:

    [zfs:pool/filesystem:][/path/to/loader]

    boot2 Fehler lautet: can't find /boot/zfsloader

    Habe eben nochmal auf meinem 14rel Server nachgesehen, beide Dateien sind vorhanden. Grübel... Vor die Stirn Patsch, Wald vor Bäumen... Natürlich...

    Ich habe boot und loader verwechselt. Wenn man von gpt zfs booten will, dann klingt gptzfsboot ja irgendwie passend. Aber gptzfsboot ist das Image welches in die freebsd-boot Partition geschrieben wird und gehört zur boot2 stage.

    Die boot2 stage lädt dann den loader, welcher im ZFS Pool liegt; und dieser heisst dann bei ZFS auch zfsloader.

    Der korrekte Befehl für die boot2 stage lautet nach der Syntax:

    zfs:tank/ROOT/default:/boot/zfsloader

    Yeah, es fluppt! Der kopierte Pool bootet.

    Und ich bekomme es nicht hin von der installer shell oder der
    live-cd den zpool schreibend zu mounten.

    zfs set readonly=off pool/filesystem?

    Ich hatte noch nicht mal den pool ro sichtbar in / bekommen. zpool import hat den zwar geholt, aber keinen mount ausgeführt. Im live-cd System ist auch / ro. Und darin enthalten auch /mnt. Um da nicht weiter rumzufrickeln und mir "mount" gezeigt hat das /tmp als tmpfs eingerichtet ist, habe kurzerhand mkdir /tmp/pool angelegt und dann konnte ich mit "zpool import -R /tmp/root tank" auch den Pool voll rw mounten. Damit gibt es auch Zugriff auf bootfs= und mit

    zpool set bootfs=/tank/ROOT/default tank

    bootet die VM jetzt klaglos durch als wäre sie schon immer von der zweiten Platte gelaufen. Jetzt könnte ich glatt die Platte per remote ssh austauschen. Hm, nee, lieber doch nicht. ;)

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Chamber's empty, time to reload. (2:240/77)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Wed Jan 21 17:59:20 2026
    Grüß Dich, Gerrit!

    Am 15 Jan 26, Gerrit Kuehn schrieb an Kai Richter:

    Ich bekomme es in einer VM nicht hin. Mir fällt schon mal auf,
    das ein "dd if=/dev/da0 bs=512 count=1 of=my-mbr" sich mit keinem
    mbr in /boot/ gleicht.

    Es ist 2026, und Du installierst einen MBR von ca. 1983, seriously?

    a) war das der Installer und ich habe nur ausgelesen (if=) und
    b) warum nicht, ich benutze ja auch ein Betriebssystem von ca. 1993.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Dein Unsinn ist meine Vernunft. (2:240/77)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Thu Jan 22 20:51:36 2026
    Hello Kai!

    21 Jan 26 17:59, Kai Richter wrote to Gerrit Kuehn:

    Ich bekomme es in einer VM nicht hin. Mir fällt schon mal auf,
    das ein "dd if=/dev/da0 bs=512 count=1 of=my-mbr" sich mit keinem
    mbr in /boot/ gleicht.

    Es ist 2026, und Du installierst einen MBR von ca. 1983, seriously?

    a) war das der Installer und ich habe nur ausgelesen (if=) und
    b) warum nicht, ich benutze ja auch ein Betriebssystem von ca. 1993.

    Wenn Du meinst.


    Regards,
    Gerrit

    ... 8:51PM up 412 days, 3:58, 9 users, load averages: 0.63, 0.45, 0.43

    --- msged/fbsd 6.3 2021-12-02
    * Origin: Is serving every man (2:240/12)
  • From Gerhard Strangar@2:240/2188.575 to Kai Richter on Thu Jan 22 05:59:12 2026
    Am 19 Jan 26 08:54:38 schrob Kai Richter an Gerhard Strangar zum Thema
    <Pool verkleinern>

    Geht nicht, habs probiert. Sogar ein pool copy geht nicht.

    Wie soll das auch gehen? Du musst doch die Eigenschaften des Pools definieren. Und dann kopierst Du die Dateisysteme darin. Was das Tool macht, weiss ich nicht, aber ich wuerde jeweils einen snaposhot anlegen und dann zfs send -R dieser_snapshot |zfs receive neuerpool/dateisystem, mehr wird das Tool auch nicht machen.



    Tschoe mit Oe
    Gerhard
    ---
    * Origin: (2:240/2188.575)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Sat Jan 24 18:42:04 2026
    Tag Gerrit!

    Am 22 Jan 26, Gerrit Kuehn schrieb an Kai Richter:

    Ich bekomme es in einer VM nicht hin. Mir fällt schon mal auf,
    das ein "dd if=/dev/da0 bs=512 count=1 of=my-mbr" sich mit
    keinem mbr in /boot/ gleicht.

    Es ist 2026, und Du installierst einen MBR von ca. 1983,
    seriously?

    a) war das der Installer und ich habe nur ausgelesen (if=) und
    b) warum nicht, ich benutze ja auch ein Betriebssystem von ca.
    1993.

    Wenn Du meinst.

    Was ist denn jetzt bitte so schlimm daran?

    Oder kann es sein, dass ich gerade mit den Namen auf die Nase falle?

    gpart show
    40 xxxxx da0 GPT (64GB)
    1 freebsd-boot (512K)
    3 freebsd-zfs (62GB)

    Da 4TB und 3TB Platten zum Einsatz kommen, haben diese GPT, welches aber mit einem protected mbr daher kommt. MBR meint hier nicht das MBR Partition Schema, sondern tatsächlich den ersten Sektor aka master boot record laut

    https://docs.freebsd.org/en/books/arch-handbook/boot/#boot-boot0

    in dem FreeBSD das boot0 file rein ballert. Da ich auch eine freebsd-boot Partiton habe, sollte dort boot2 liegen und der (zfs)loader wird dann von der (zfs)root Partition geholt.

    Mein Problem ist gerade, dass ich im Arch Handbook nichts über EFI boot finde.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Iboprofen. Bei schwierigen Mails. (2:240/77)
  • From Kai Richter@2:240/77 to Gerhard Strangar on Sat Jan 24 19:29:22 2026
    Tach auch Gerhard!

    Am 22 Jan 26, Gerhard Strangar schrieb an Kai Richter:

    Was das Tool macht, weiss ich nicht, aber ich wuerde jeweils einen snaposhot anlegen und dann zfs send -R dieser_snapshot |zfs receive neuerpool/dateisystem, mehr wird das Tool auch nicht machen.

    Korrekt. Legt halt die snapshots an, mit Zeitstempel-Syntax und entfernt diese auch wieder.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: San Francisco Symphony Orchestra & Metallica are: S&M (2:240/77)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Mon Jan 26 08:36:05 2026
    Hello Kai!

    24 Jan 26 18:42, Kai Richter wrote to Gerrit Kuehn:

    Oder kann es sein, dass ich gerade mit den Namen auf die Nase falle?

    Ja, oder ich.

    gpart show
    40 xxxxx da0 GPT (64GB)
    1 freebsd-boot (512K)
    3 freebsd-zfs (62GB)

    Das ist ja immerhin GPT, nicht MBR.
    UEFI Kann das System nicht?

    Mein Problem ist gerade, dass ich im Arch Handbook nichts über EFI
    boot finde.

    Kann es doch? Dann brauchst Du keinen MBR.


    Regards,
    Gerrit

    ... 8:36AM up 415 days, 15:43, 9 users, load averages: 0.75, 0.54, 0.49

    --- msged/fbsd 6.3 2021-12-02
    * Origin: We are the second generation (2:240/12)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Tue Jan 27 12:36:44 2026
    Servus Gerrit!

    Am 26 Jan 26, Gerrit Kuehn schrieb an Kai Richter:

    gpart show
    40 xxxxx da0 GPT (64GB)

    Das ist ja immerhin GPT, nicht MBR.
    UEFI Kann das System nicht?

    Nein. Ist ein HP Proliant Microserver N40L aus 2011.
    Da gab es zwar schon UEFI und es gibt auch ein optionales TPM Modul, aber da das der kleinste HP "Server" war, hat man wohl an allem gespart. Es gibt einen BIOS Hack aus 2014, mit dem die 4 Wechselrahmen Hotswap tauglich werden und der "CDROM" Anschluss auch für eine HDD benutzt werden kann. Den habe ich aber noch nicht installiert und wollte ich bisher auch nicht.

    Mein Problem ist gerade, dass ich im Arch Handbook nichts über
    EFI boot finde.

    Kann es doch? Dann brauchst Du keinen MBR.

    Das weiss ich nicht. Ich finde Hinweise, dass UEFI direkt von einer ESP aka EFI System Partition starten kann. Der protected mbr dient in erster Linie dazu legacy (non-uefi) software vorzugaukeln, dass der gesamte Speicherplatz von einer riesigen Parttion belegt wird. Ohne MBR legt ein legacy tool nämlich mal schnell eine leere Partitionstabelle an und überschreibt dabei gpt Daten.

    Daher glaube ich es ist grundsätzlich eine gute Idee einen mbr zu haben.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Dann fehlen eben 207542. (2:240/77)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Wed Jan 28 12:15:08 2026
    Hello Kai!

    27 Jan 26 12:36, Kai Richter wrote to Gerrit Kuehn:


    Nein. Ist ein HP Proliant Microserver N40L aus 2011.

    Das ist... antik.

    Das weiss ich nicht. Ich finde Hinweise, dass UEFI direkt von einer
    ESP aka EFI System Partition starten kann.

    "Hinweise"? Ich würde das für den Standardfall halten. Ich benutze schon seit Jahren keine bootcode-Installation mehr. Einfach eine EFI-Partition anlegen und dort den Bootloader ablegen. Um den Rest kümmert sich das BIOS.

    Der protected mbr dient
    in erster Linie dazu legacy (non-uefi) software vorzugaukeln, dass
    der gesamte Speicherplatz von einer riesigen Parttion belegt wird.
    Ohne MBR legt ein legacy tool nämlich mal schnell eine leere Partitionstabelle an und überschreibt dabei gpt Daten.

    Ich verstehe das Szenario nicht. Welche Software schreibt bei dir auf den Partitionstabellen herum, ohne das Du etwas davon mitbekommt? Warum hat die überhaupt die Rechte dafür? Software, die sowas tut, ist wohl zurecht "legacy" und sollte besser nicht mehr benutzt werden. :)

    Daher glaube ich es ist grundsätzlich eine gute Idee einen mbr zu
    haben.

    Kannst Du ja machen. Ist halt heutzutage nur eher unüblich und macht es nicht einfacher, den Bootvorgang zu verstehen, Updates einzuspielen etc.


    Regards,
    Gerrit

    ... 12:15PM up 417 days, 19:22, 9 users, load averages: 0.44, 0.54, 0.51

    --- msged/fbsd 6.3 2021-12-02
    * Origin: We are a nation (2:240/12)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Thu Jan 29 20:02:38 2026
    Hallo Gerrit!

    Am 28 Jan 26, Gerrit Kuehn schrieb an Kai Richter:

    Nein. Ist ein HP Proliant Microserver N40L aus 2011.
    Das ist... antik.

    Solide und funktioniert, wenn man es mit einem low memory BS befeuert. ;-)

    Das weiss ich nicht. Ich finde Hinweise, dass UEFI direkt von
    einer ESP aka EFI System Partition starten kann.

    "Hinweise"? Ich würde das für den Standardfall halten.

    Ich habe mich nicht in die genauen Einzelheiten von UEFI eingelesen. Der FreeBSD Installer führte bisher bei mir auch immer nur Legacy Boot Installationen durch, daher habe ich keine Erfahrung mit UEFI.

    Ich benutze schon seit Jahren keine bootcode-Installation mehr.
    Einfach eine EFI-Partition anlegen und dort den Bootloader ablegen.
    Um den Rest kümmert sich das BIOS.

    Meine Erfahrung sind da anders, allerdings war das vermutlich ebenfalls eines der älteren UEFI BIOSe. Im Bastelrechner mal schnell eine andere Bootplatte reinsetzen war nicht, weil die Bootconfig im UEFI BIOS auf eine andere UUID gemappt war. Installer haben auch mal gerne bestehende Einträge, die nicht mehr aktiv weil "alte" Platte ausgebaut, gelöscht und die einzige "neue" Platte zum booten angemeldet.

    Ich verstehe das Szenario nicht. Welche Software schreibt bei dir auf
    den Partitionstabellen herum, ohne das Du etwas davon mitbekommt?
    Warum hat die überhaupt die Rechte dafür? Software, die sowas tut, ist wohl zurecht "legacy" und sollte besser nicht mehr benutzt werden. :)

    Die Hardening FAQ muss hier noch abgearbeitet werden.

    Daher glaube ich es ist grundsätzlich eine gute Idee einen mbr zu
    haben.

    Kannst Du ja machen. Ist halt heutzutage nur eher unüblich und macht
    es nicht einfacher, den Bootvorgang zu verstehen, Updates einzuspielen etc.

    Also ich finde legacy boot eigentlich relativ straight und einfach zu verstehen. Erst mit UEFI haben meine Probleme angefangen. Vielleicht liegt das aber auch daran, dass ich mit legacy aufgewachsen bin.

    Legt bsdinstall automatisch EFI Boot an, wenn der Rechner UEFI fähig ist?

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Museumsstuecke sind was fuer Insider, nicht fuer Laien. (2:240/77)
  • From Gerhard Strangar@2:240/2188.575 to Gerrit Kuehn on Mon Feb 2 06:24:37 2026
    Am 28 Jan 26 12:15:08 schrob Gerrit Kuehn an Kai Richter zum Thema
    <Pool verkleinern>

    Ich benutze schon
    seit Jahren keine bootcode-Installation mehr. Einfach eine EFI-Partition anlegen und dort den Bootloader ablegen. Um den Rest kuemmert sich das BIOS.

    Hast Du Software-RAID 1 auf den Bootplatten? Ist die EFI-Partition dann auch gespiegelt?



    Tschoe mit Oe
    Gerhard
    ---
    * Origin: (2:240/2188.575)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Mon Feb 2 12:39:58 2026
    Hello Kai!

    29 Jan 26 20:02, Kai Richter wrote to Gerrit Kuehn:


    Legt bsdinstall automatisch EFI Boot an, wenn der Rechner UEFI fähig
    ist?

    Keine Ahnung, ich benutze den Installer fast nie, da ich meistens auf UFS-GMirrors installiere. Ich würde aber nicht erwarten, daß der auf "UEFI-fähig" guckt, sondern sich vielmehr dafür interessiert, ob mit UEFI gebootet wurde.


    Regards,
    Gerrit

    ... 12:39PM up 422 days, 19:46, 9 users, load averages: 0.72, 0.75, 0.61

    --- msged/fbsd 6.3 2021-12-02
    * Origin: Shock to the System (2:240/12)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Thu Feb 5 06:28:18 2026
    Tag Gerrit!

    Am 04 Feb 26, Kai Richter schrieb an Gerrit Kuehn:

    Basiert gmirror immer auf ein ganzes device, oder kann man es auch auf eine Partition ansetzen?

    Habs probiert. Es geht nicht auf die gemountete root Partition, aber von life CD hat es geklappt, nachdem ich geom_mirror nachgeladen hatte.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Alas 'tis true, I have gone here and there (2:240/77)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Wed Feb 4 20:55:07 2026
    Hello Kai!

    04 Feb 26 06:16, Kai Richter wrote to Gerrit Kuehn:

    Dabei fällt mir auf, dass ich FreeBSD bisher nur auf "antiker"
    Hardware installiert haben müsste. ;-) Jedenfalls wurde bisher noch
    nie eine ESP Partition vom Installer angelegt.

    Ich würde die gesagt darauf tippen, daß es darauf ankommt, ob Du das Bootmedium mit EFI benutzt hast oder nicht.

    Basiert gmirror immer auf ein ganzes device, oder kann man es auch
    auf eine Partition ansetzen?

    gmirror nutzt geom provider (man 4 geom).


    Regards,
    Gerrit

    ... 8:55PM up 425 days, 4:02, 9 users, load averages: 0.53, 0.70, 0.65

    --- msged/fbsd 6.3 2021-12-02
    * Origin: America, America the western dream is gone (2:240/12)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Thu Feb 5 21:07:27 2026
    Hello Kai!

    05 Feb 26 06:28, Kai Richter wrote to Gerrit Kuehn:


    Basiert gmirror immer auf ein ganzes device, oder kann man es auch
    auf eine Partition ansetzen?

    Habs probiert. Es geht nicht auf die gemountete root Partition, aber
    von life CD hat es geklappt, nachdem ich geom_mirror nachgeladen
    hatte.

    Ich denke, das sollte auch mit aktivem root funktionieren, ist aber sicher nicht "1st choice" (schon gar nicht, wenn man das zum ersten Mal macht).


    Regards,
    Gerrit

    ... 9:07PM up 426 days, 4:14, 9 users, load averages: 0.47, 0.44, 0.51

    --- msged/fbsd 6.3 2021-12-02
    * Origin: We're telling tales of communication (2:240/12)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Fri Feb 6 12:01:08 2026
    Moin Gerrit!

    Am 04 Feb 26, Gerrit Kuehn schrieb an Kai Richter:

    Dabei fällt mir auf, dass ich FreeBSD bisher nur auf "antiker"
    Hardware installiert haben müsste. ;-) Jedenfalls wurde bisher
    noch nie eine ESP Partition vom Installer angelegt.

    Ich würde die gesagt darauf tippen, daß es darauf ankommt, ob Du das Bootmedium mit EFI benutzt hast oder nicht.

    Ich habe jetzt die EFI Boot Option von VirtualBox VMs gefunden. Die EFI shell zeigt viele (>10) gpt Partitionen an. Die shell versteht sowohl ls als auch dir und nachdem ich das FreeBSD ISO gefunden hatte, bootet als auch installiert der Installer auch mit UEFI ESP Partitonen.

    Basiert gmirror immer auf ein ganzes device, oder kann man es
    auch auf eine Partition ansetzen?

    gmirror nutzt geom provider (man 4 geom).

    GEOM_PART_MBR
    GEOM_PART_GPT

    Beim rumbasteln hatte ich irgendwann dann auch einen aktiven Mirror, aber auch eine kuriose race condition. Aus einem degraded mirror mit 1/2 liess sich der Mirror nicht mehr abschalten. Ein "gmirror stop" hat zwar gem. Meldungen den Mirror gestoppt und gelöscht, aber keine 5 Sekunden später wurde wieder ein mirror gefunden und aktiviert. Wenn man diesen dann gelöscht hat, passierte dasselbe wieder, mit dem Unterschied, dass der Provider immer zwischen da1p2 und gpt/<laange uuid> wechselte.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Everthing possible but what do we really need? (2:240/77)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Sun Feb 8 09:50:28 2026
    Hello Kai!

    06 Feb 26 12:01, Kai Richter wrote to Gerrit Kuehn:

    Beim rumbasteln hatte ich irgendwann dann auch einen aktiven Mirror,
    aber auch eine kuriose race condition. Aus einem degraded mirror mit
    1/2 liess sich der Mirror nicht mehr abschalten.

    Ist jetzt schwierig zu beurteilen, ohne zu wissen, was Du eigentlich *genau* gemacht hast. Solange die Metadaten auf dem Provider sind, wundert mich sowas aber nicht wirklich.

    Bei den IDs kommt es darauf an, welche Du vergeben hast. DEVID und UUID bekommst Du normalerweise automatisch, ufsid und gptid kommen ggf. dazu. "Viel hilft viel" ist hier nicht unbedingt richtig, man kann sich da auch schnell verlaufen. Am besten also für eine Lösung entscheiden. Steuerung geht ggf. über kernel-Optionen wie
    kern.geom.label.gptid.enable
    kern.geom.label.disk_ident.enable
    kern.geom.label.ufsid.enable

    https://www.freebsdhandbook.com/geom/#geom-glabel


    Regards,
    Gerrit

    ... 9:50AM up 428 days, 16:57, 9 users, load averages: 0.71, 0.74, 0.66

    --- msged/fbsd 6.3 2021-12-02
    * Origin: We're telling tales of communication (2:240/12)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Mon Feb 9 13:02:18 2026
    Tag auch Gerrit!

    Am 05 Feb 26, Gerrit Kuehn schrieb an Kai Richter:

    Habs probiert. Es geht nicht auf die gemountete root Partition,
    aber von life CD hat es geklappt, nachdem ich geom_mirror
    nachgeladen hatte.

    Ich denke, das sollte auch mit aktivem root funktionieren, ist aber
    sicher nicht "1st choice" (schon gar nicht, wenn man das zum ersten
    Mal macht).

    Deswegen passiert auch alles zuerst in einer VM. Ich hatte auch geom debugflags auf 16 gesetzt, aber damit wurde es nicht besser.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Wasserstoff - und die Oelmultis gehen pleite (2:240/77)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Mon Feb 9 13:36:32 2026
    Hey Gerrit!

    Am 08 Feb 26, Gerrit Kuehn schrieb an Kai Richter:

    Mirror, aber auch eine kuriose race condition. Aus einem degraded
    mirror mit 1/2 liess sich der Mirror nicht mehr abschalten.

    Ist jetzt schwierig zu beurteilen, ohne zu wissen, was Du eigentlich *genau* gemacht hast.

    Jupp, jetzt wird es schwierig. ;-)

    Ich erinnere mich noch, dass ich die Partitionstabellen mehrfach manuell als auch mit dem Installer platt gemacht und neu angelegt zu haben. Ohne allerdings ein label zu löschen. Ich denke ich muss mir angewöhnen einen Snapshot auf eine VM mit wirklich leeren HD zu setzen und diesen dann mit jeder Versuchsrunde erneut zu nutzen.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Endlich ging die Sonne unter und der graue Tag erschien (2:240/77)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Tue Feb 24 15:13:20 2026
    Hallo Gerrit!

    Am 08 Feb 26, Gerrit Kuehn schrieb an Kai Richter:

    kann sich da auch schnell verlaufen. Am besten also für eine Lösung entscheiden. Steuerung geht ggf. über kernel-Optionen wie kern.geom.label.gptid.enable
    kern.geom.label.disk_ident.enable
    kern.geom.label.ufsid.enable

    https://www.freebsdhandbook.com/geom/#geom-glabel

    Ich bin jetzt am "echten" Server unterwegs (Darf man einen Home Server auch Produktivsystem nennen? ;-))

    Der Server soll einen ZFS on Boot Mirror bekommen.

    Bei der Kopie der Partitionierung mit gpart backup/restore habe ich unbemerkt identische Labels verwendet.

    Als dann beide HDD im laufenden System waren, wurde das zweite Label nicht als label, sondern als gpt-uuid angezeigt. Weisst Du zufällig, ob dieses Fallback noch verfügbar ist, wenn man gptid auf disable setzt?

    Also ob das disable nur auf die Anzeige oder wirklich hart auf die Funktion durchgreift?

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Alas 'tis true, I have gone here and there (2:240/77)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Tue Feb 24 17:33:44 2026
    Tach Gerrit!

    Am 08 Feb 26, Gerrit Kuehn schrieb an Kai Richter:

    Ist jetzt schwierig zu beurteilen, ohne zu wissen, was Du eigentlich *genau* gemacht hast.

    Homeserver, Ziel: Die einzige ZFS on Boot 4TB HDD mit einer 3TB HDD zu einem Mirror erweitern.

    Für den Aufbau der ZFSonB 4TB HDD wollte ich mit einem frischen FreeBSD 15-REL anfangen und habe dabei nicht bedacht, dass der ZFSonB Modus des Installers immer die ganze verfügbare Platte benutzt.

    Letztlich war die einfachste Variante ein neues FreeBSD auf der 3TB HDD zu installieren.

    Ich habe dann den ursprünglichen Pool mit dem altroot= Parameter importiert und die einzelnen Datasets mit set mountpoint=/path eingebunden. Damit konnte ich dann die Dateien in die Datasets auf der neuen Platte verschieben. Wenn das ursprüngliche Dataset leer war, wurden 96K als Referer angezeigt und ich habe das leere Dataset dann gelöscht.

    Problem: Das ehemalige / dir zroot/ROOT/default lässt sich anscheinend nicht mounten.

    ~ # zfs list -r zroot
    NAME USED AVAIL REFER MOUNTPOINT
    zroot 2.39G 3.51T 96K none
    zroot/ROOT 2.38G 3.51T 96K none
    zroot/ROOT/default 2.38G 3.51T 2.38G /zroot/remount

    zfs set mountpoint= lief ohne Fehlermeldung durch.

    Aber im /zroot taucht kein Verzeichnis remount auf.

    Bei den vorherigen Datasets wie zroot/home hat das noch funktioniert und in remount waren dann die user Verzeichnisse zu sehen.

    Ich habe alle mountpoints auf none gesetzt, den pool exportiert und einen reboot gemacht.


    ~ # zpool import -o altroot=/zzroot zroot

    ~ # zfs get mountpoint zroot/ROOT
    NAME PROPERTY VALUE SOURCE
    zroot/ROOT mountpoint none local
    ~ # zfs get mountpoint zroot
    NAME PROPERTY VALUE SOURCE
    zroot mountpoint none local

    ~ # zfs set mountpoint=/zzroo/root zroot/ROOT
    ~ # zfs set mountpoint=/zzroo/root/default zroot/ROOT/default

    ~ # ls /zzroot
    zzroo
    :~ # ls /zzroot/zzroo
    root
    ~ # ls /zzroot/zzroo/root
    ~ #

    ~ # zfs mount | grep zroot
    zroot/ROOT /zzroot/zzroo/root

    Wo ist mein Fehler und wie kann ich die 2.38G wieder sichtbar machen?

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Bastelschlumpf (2:240/77)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Tue Feb 24 20:03:32 2026
    Tag Gerrit!

    Am 24 Feb 26, Kai Richter schrieb an Gerrit Kuehn:

    Problem: Das ehemalige / dir zroot/ROOT/default lässt sich anscheinend nicht mounten.

    Wo ist mein Fehler und wie kann ich die 2.38G wieder sichtbar machen?

    Habs doch noch gefunden. Dadurch dass der zfs set mountpoint Befehl bisher immer zu einer sofortigen Änderung des mount-pfades geführt hat, bin ich von einem falschen Ergebnis ausgegangen.

    Nachdem ich mit "zfs get all zroot" alle Parameter gelesen habe, kam ich auf "canmount=noauto".

    Ein manueller Einsatz von "zfs mount" machte dann den alten root-tree wieder sichtbar.

    Sorry falls Du zuvor schon in die Tasten geschlagen hast.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Monobox - OS/2 has gone (2:240/77)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Tue Feb 24 19:27:54 2026
    Hello Kai!

    24 Feb 26 15:13, Kai Richter wrote to Gerrit Kuehn:


    Also ob das disable nur auf die Anzeige oder wirklich hart auf die Funktion durchgreift?

    Keine Ahnung, ausprobieren...


    Regards,
    Gerrit

    ... 7:27PM up 445 days, 2:34, 9 users, load averages: 0.69, 0.66, 0.65

    --- msged/fbsd 6.3 2021-12-02
    * Origin: Ideas of lust and dying (2:240/12)
  • From Gerrit Kuehn@2:240/12 to Kai Richter on Tue Feb 24 21:40:29 2026
    Hello Kai!

    24 Feb 26 20:03, Kai Richter wrote to Gerrit Kuehn:


    Ein manueller Einsatz von "zfs mount" machte dann den alten
    root-tree wieder sichtbar.
    Sorry falls Du zuvor schon in die Tasten geschlagen hast.

    Paßt schon. ;-)


    Regards,
    Gerrit

    ... 9:40PM up 445 days, 4:47, 9 users, load averages: 0.53, 0.75, 0.67

    --- msged/fbsd 6.3 2021-12-02
    * Origin: We're telling tales of communication (2:240/12)
  • From Kai Richter@2:240/77 to Gerrit Kuehn on Thu Feb 26 13:34:44 2026
    Hey Gerrit!

    Am 24 Feb 26, Kai Richter schrieb an Gerrit Kuehn:

    kann sich da auch schnell verlaufen. Am besten also für eine
    Lösung entscheiden. Steuerung geht ggf. über kernel-Optionen wie
    kern.geom.label.gptid.enable
    kern.geom.label.disk_ident.enable
    kern.geom.label.ufsid.enable

    Als dann beide HDD im laufenden System waren, wurde das zweite Label
    nicht als label, sondern als gpt-uuid angezeigt.

    Es wird langsam verwirrend. Ich habe jetzt eine frische VM aufgesetzt, mit 4 HDD. Ohne weitere Modifikation zeigt "gpart show -l" trotz gleicher Labels alle Labels korrekt an.

    Weisst Du zufällig, ob dieses Fallback noch verfügbar ist, wenn man
    gptid auf disable setzt?

    Um das in der VM auszuprobieren, hatte ich nachsehen müssen wo man die kern.geom Variablen permanent hinterlegt (loader.conf). Dabei bin ich über

    https://forums.freebsd.org/threads/bsdinstall-disables-gpt-identification-for-g uided-zfs-install.73938/

    gestolpert, in dem zitiert wird:

    Beware that all your disks need to have GPT labels, and those labels
    need to be carried forward into /etc/fstab, etc., before you reboot,
    as the kernel won't be able to find the disks using Disk ID or GPT
    GUID labels once those methods are disabled.

    Also ob das disable nur auf die Anzeige oder wirklich hart auf die Funktion durchgreift?

    Folglich greift disable hart durch und kann den Bootvorgang crashen.

    Tschuess

    Kai

    --- GoldED+/LNX 1.1.4.7
    * Origin: Das Leben, das Universum, und der Rest... (2:240/77)