staging.inyokaproject.org

Für diese Funktion musst du eingeloggt sein.

Ersteinrichtung: /home mit ZFS?

Status: Gelöst | Ubuntu-Version: Ubuntu MATE 20.04 (Focal Fossa)
Antworten |

CDrewing

Avatar von CDrewing

Anmeldungsdatum:
6. November 2007

Beiträge: 549

Hallo,

ich habe mir ein komplett frisch aufgesetztes 20.04 gegönnt. Hat auch ganz wunderbar mit einer Dualboot-Installation von W10 funktioniert - ich hatte mit allem gerechnet, nur nicht damit dass es einfach so funktioniert. ☺

Nun habe ich hier eine SSD, auf der die jeweiligen Systemdaten liegen und zwei HDDs von Western Digital (3TB, 10TB), die ich überwiegend aber nicht komplett für mein /home nutzen möchte. Und dafür würde ich gerne ZFS nutzen (wegen Cow und Datenkompression). Backup ist kein Thema, meine Daten sind allesamt online gesichert.

Nun habe ich also eine Partition sda3, aber nicht sda komplett und ein komplettes Laufwerk sdb (mit der Partition sdb1), die ich gerne als pool nutzen würde:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
sda      8:0    0   9,1T  0 disk 
├─sda1   8:1    0    16M  0 part 
├─sda2   8:2    0     1T  0 part 
└─sda3   8:3    0   8,1T  0 part 
sdb      8:16   0   2,7T  0 disk 
└─sdb1   8:17   0   2,7T  0 part 
sdc      8:32   0 931,5G  0 disk 
├─sdc1   8:33   0   450M  0 part 
├─sdc2   8:34   0   100M  0 part /boot/efi
├─sdc3   8:35   0    16M  0 part 
├─sdc4   8:36   0 381,5G  0 part 
└─sdc5   8:37   0 549,5G  0 part /

Geht das oder kann ich ZFS nur für 'ganze Laufwerke' nutzen? So wirklich tolle Tutorials habe ich noch nicht gefunden.

Vielen Dank!!

jdr

Anmeldungsdatum:
29. April 2007

Beiträge: 48

Du kannst für ZFS auch Partitionen nutzen. Ich habe es z. B. in meinem NAS mit verschlüsselten LUKS Partitionen (ZFS Verschlüsselung ist noch nicht so optimal). Nicht als /home, aber das sollte wohl auch gehen.

root@n54l:~# lsblk
NAME                                       MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINT
sda                                          8:0    0 232.9G  0 disk  
├─sda1                                       8:1    0    30G  0 part  /
├─sda2                                       8:2    0     1K  0 part  
└─sda5                                       8:5    0 122.9G  0 part  /datenhd
sdb                                          8:16   0   2.7T  0 disk  
└─sdb1                                       8:17   0   2.7T  0 part  
  └─crypt-ata-TOSHIBA_DT01ABA300_xxxxxxxxx-part1
                                           254:0    0   2.7T  0 crypt 
sdc                                          8:32   0   2.7T  0 disk  
└─sdc1                                       8:33   0   2.7T  0 part  
  └─crypt-ata-TOSHIBA_DT01ABA300_xxxxxxxxx-part1
                                           254:1    0   2.7T  0 crypt 
sdd                                          8:48   0   2.7T  0 disk  
└─sdd1                                       8:49   0   2.7T  0 part  
  └─crypt-ata-TOSHIBA_DT01ABA300_xxxxxxxxx-part1
                                           254:2    0   2.7T  0 crypt 
sde                                          8:64   0   2.7T  0 disk  
└─sde1                                       8:65   0   2.7T  0 part  
  └─crypt-ata-TOSHIBA_DT01ABA300_xxxxxxxxx-part1
                                           254:3    0   2.7T  0 crypt 

CDrewing

(Themenstarter)
Avatar von CDrewing

Anmeldungsdatum:
6. November 2007

Beiträge: 549

Ich hänge es hier mal ran, da es zum Thema gehört.

Ich bin soweit fertig mit meiner Systemeinrichtung. Da ich in Teilen auf W64 angewiesen bin, ist es ein Dualboot System. Alles gut soweit. Nun habe ich die erste Festplatte (sdb) in einen ZFS Pool getan und wollte eigentlich meine /home Daten migrieren. Und da erhalte ich nach gewisser Zeit einen disk full error.

Alles gut sowet...

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
root@cdrewing-desktop:/tmp# zpool status zfs-pool
  pool: zfs-pool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	zfs-pool    ONLINE       0     0     0
	  sdb       ONLINE       0     0     0

errors: No known data errors

Aber...

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
root@cdrewing-desktop:/tmp# df
Dateisystem     1K-Blöcke    Benutzt  Verfügbar Verw% Eingehängt auf
udev              8092872          0    8092872    0% /dev
tmpfs             1634188       1868    1632320    1% /run
/dev/sdc5       566089456  547023756          0  100% /
tmpfs             8170932     311756    7859176    4% /dev/shm
tmpfs                5120          4       5116    1% /run/lock
tmpfs             8170932          0    8170932    0% /sys/fs/cgroup
/dev/loop1          56320      56320          0  100% /snap/core18/1754
/dev/loop0          56320      56320          0  100% /snap/core18/1705
/dev/loop2            128        128          0  100% /snap/software-boutique/54
/dev/loop3          15232      15232          0  100% /snap/ubuntu-mate-welcome/524
/dev/loop4          15232      15232          0  100% /snap/ubuntu-mate-welcome/539
/dev/loop5          27776      27776          0  100% /snap/snapd/7264
/dev/sdc2           98304      33842      64462   35% /boot/efi
/dev/sda3      8623091320 2008968512 6179472544   25% /home
tmpfs             1634184         36    1634148    1% /run/user/1000

Hier stört insbesondere sdc5 - meine "kleine" SSD-Partition mit dem Ubuntu-Grundsystem. Wie Ihr seht ist /home auf eine konventionelle Festplatte sda3 ausgelagert. Wenn ich jetzt allerdings versuche mittels rsync -axHAX --delete ... die Daten von /home in den gemounteten zfs-pool zu kopieren, schreibt er mir die sdc5 voll. Liegt das daran, dass die zu schreibenden ZFS Daten zunächst einmal woanders gecached werden? Und wenn ja, wie kann ich das ändern?

Nach dem Löschen der unvollständig kopierten Daten sind auf sdc5 übrigens wieder 97% frei.

VIELEN DANK!

Antworten |