staging.inyokaproject.org

ZFS auf Zweitplatte frisst Platz auf ext4-Rootplatte auf

Status: Gelöst | Ubuntu-Version: Ubuntu MATE 20.04 (Focal Fossa)
Antworten |

CDrewing

Avatar von CDrewing

Anmeldungsdatum:
6. November 2007

Beiträge: 549

Hallo,

ich habe ein Dualboot System (Ubuntu/W64) und drei Laufwerke:

  1. Samsung EVO SSD 1 TB (jeweils als Bootplatten)

  2. WD Red 3 TB als zfs

  3. WD Red 10 TB noch als ext4-/home (9 TB) und W64 Eigene Dateien (1 TB), nach Datenmigration zusätzlich als zfs (9 TB) und die W64 Eigenen Dateien bleiben.

Das /home der 3 liegt bei 2.7TB, sollte also dicke reichen um alles rüberzukopieren bevor ich die Partition kille und dem zfs-pool hinzufüge.

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
loop0    7:0    0    55M  1 loop /snap/core18/1705
loop1    7:1    0    55M  1 loop /snap/core18/1754
loop2    7:2    0  30,3M  1 loop /snap/snapd/7777
loop3    7:3    0  27,1M  1 loop /snap/snapd/7264
loop4    7:4    0  14,9M  1 loop /snap/ubuntu-mate-welcome/539
loop5    7:5    0    16K  1 loop /snap/software-boutique/54
loop6    7:6    0  14,9M  1 loop /snap/ubuntu-mate-welcome/524
sda      8:0    0   9,1T  0 disk # das hier ist meine 10TB WD Red
├─sda1   8:1    0    16M  0 part 
├─sda2   8:2    0     1T  0 part # das hier ist \users meiner W64 dualboot Installation
└─sda3   8:3    0   8,1T  0 part /home # und hier läuft /home drauf (ext4)
sdb      8:16   0   2,7T  0 disk # das hier ist meine 3TB WD Red
├─sdb1   8:17   0   2,7T  0 part # hier sollte mein zfs-pool sein
└─sdb9   8:25   0     8M  0 part 
sdc      8:32   0 931,5G  0 disk # das hier ist meine SSD
├─sdc1   8:33   0   450M  0 part # dualboot
├─sdc2   8:34   0   100M  0 part /boot/efi
├─sdc3   8:35   0    16M  0 part 
├─sdc4   8:36   0 381,5G  0 part # root der W64 Installation
└─sdc5   8:37   0 549,5G  0 part / # root meines Ubuntu 20.04
sdd      8:48   1  29,9G  0 disk # just another USB stick
└─sdd1   8:49   1  29,9G  0 part /media/cdrewing/J_CCSA_X64F
sr0     11:0    1  1024M  0 rom  

Während ich so fröhlich vor mich her rsynce, erhalte ich einen disk full error. Aus irgendwelchen Gründen werden Daten auf der SSD gespeichert.

df vorher (schau auf sdc5):

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
Dateisystem     1K-Blöcke    Benutzt  Verfügbar Verw% Eingehängt auf
udev              8092872          0    8092872    0% /dev
tmpfs             1634188       1800    1632388    1% /run
/dev/sdc5       566089456   21483752  515780260    4% /
tmpfs             8170932     179640    7991292    3% /dev/shm
tmpfs                5120          4       5116    1% /run/lock
tmpfs             8170932          0    8170932    0% /sys/fs/cgroup
/dev/loop1          56320      56320          0  100% /snap/core18/1754
/dev/loop0          56320      56320          0  100% /snap/core18/1705
/dev/loop2          31104      31104          0  100% /snap/snapd/7777
/dev/loop3          27776      27776          0  100% /snap/snapd/7264
/dev/loop5            128        128          0  100% /snap/software-boutique/54
/dev/loop4          15232      15232          0  100% /snap/ubuntu-mate-welcome/539
/dev/loop6          15232      15232          0  100% /snap/ubuntu-mate-welcome/524
/dev/sdc2           98304      33842      64462   35% /boot/efi
/dev/sda3      8623091320 2009123084 6179317972   25% /home
tmpfs             1634184         24    1634160    1% /run/user/1000
/dev/sdd1        31308768    4075984   27232784   14% /media/cdrewing/J_CCSA_X64F

Und nachher:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
Dateisystem     1K-Blöcke    Benutzt  Verfügbar Verw% Eingehängt auf
udev              8092872          0    8092872    0% /dev
tmpfs             1634188       1800    1632388    1% /run
/dev/sdc5       566089456   34778464  502485548    7% / # sdc5 ist meine SSD, die umso voller wird je mehr ich im zfs-pool speichere!
tmpfs             8170932     239100    7931832    3% /dev/shm
tmpfs                5120          4       5116    1% /run/lock
tmpfs             8170932          0    8170932    0% /sys/fs/cgroup
/dev/loop1          56320      56320          0  100% /snap/core18/1754
/dev/loop0          56320      56320          0  100% /snap/core18/1705
/dev/loop2          31104      31104          0  100% /snap/snapd/7777
/dev/loop3          27776      27776          0  100% /snap/snapd/7264
/dev/loop5            128        128          0  100% /snap/software-boutique/54
/dev/loop4          15232      15232          0  100% /snap/ubuntu-mate-welcome/539
/dev/loop6          15232      15232          0  100% /snap/ubuntu-mate-welcome/524
/dev/sdc2           98304      33842      64462   35% /boot/efi
/dev/sda3      8623091320 2009134208 6179306848   25% /home
tmpfs             1634184         24    1634160    1% /run/user/1000
/dev/sdd1        31308768    4075984   27232784   14% /media/cdrewing/J_CCSA_X64F

Das oben waren nur 15 GB Testfiles, mit dem gesamten 2.7TB /home läuft die SSD komplett voll, disk full error. Was habe ich falsch gemacht? Cached zfs Daten auf dem root Laufwerk?

1
2
3
cdrewing@cdrewing-desktop:~$ cat zpool_list.txt 
NAME       SIZE  ALLOC   FREE  CKPOINT  EXPANDSZ   FRAG    CAP  DEDUP    HEALTH  ALTROOT
zfs-pool  2,72T   616G  2,12T        -         -     2%    22%  1.01x    ONLINE  -
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
cdrewing@cdrewing-desktop:~$ cat zpool_status.txt 
  pool: zfs-pool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	zfs-pool    ONLINE       0     0     0
	  sdb       ONLINE       0     0     0

errors: No known data errors

Den Mountpoint ändere ich sobald alles läuft:

1
2
3
cdrewing@cdrewing-desktop:~$ cat zpool_mountpoint.txt 
NAME      PROPERTY    VALUE       SOURCE
zfs-pool  mountpoint  /zfs        local

Wo bin ich falsch abgebogen? Liegt es an der Kompression? Beim Kopieren erhalte ich Datenraten von rund 180 MB/s - da wird wohl nichts on-the-fly-komprimiert, folglich zwischengespeichert. Allerdings verringert sich die Speichernutzung nicht über die Zeit. Hier die Parameter:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
cdrewing@cdrewing-desktop:~$ zpool get all zfs-pool 
NAME      PROPERTY                       VALUE                          SOURCE
zfs-pool  size                           2,72T                          -
zfs-pool  capacity                       22%                            -
zfs-pool  altroot                        -                              default
zfs-pool  health                         ONLINE                         -
zfs-pool  guid                           12471884231831080834           -
zfs-pool  version                        -                              default
zfs-pool  bootfs                         -                              default
zfs-pool  delegation                     on                             default
zfs-pool  autoreplace                    off                            default
zfs-pool  cachefile                      -                              default
zfs-pool  failmode                       wait                           default
zfs-pool  listsnapshots                  off                            default
zfs-pool  autoexpand                     off                            default
zfs-pool  dedupditto                     0                              default
zfs-pool  dedupratio                     1.01x                          -
zfs-pool  free                           2,12T                          -
zfs-pool  allocated                      616G                           -
zfs-pool  readonly                       off                            -
zfs-pool  ashift                         0                              default
zfs-pool  comment                        -                              default
zfs-pool  expandsize                     -                              -
zfs-pool  freeing                        0                              -
zfs-pool  fragmentation                  2%                             -
zfs-pool  leaked                         0                              -
zfs-pool  multihost                      off                            default
zfs-pool  checkpoint                     -                              -
zfs-pool  load_guid                      2164609128460223284            -
zfs-pool  autotrim                       off                            default
zfs-pool  feature@async_destroy          enabled                        local
zfs-pool  feature@empty_bpobj            enabled                        local
zfs-pool  feature@lz4_compress           active                         local
zfs-pool  feature@multi_vdev_crash_dump  enabled                        local
zfs-pool  feature@spacemap_histogram     active                         local
zfs-pool  feature@enabled_txg            active                         local
zfs-pool  feature@hole_birth             active                         local
zfs-pool  feature@extensible_dataset     active                         local
zfs-pool  feature@embedded_data          active                         local
zfs-pool  feature@bookmarks              enabled                        local
zfs-pool  feature@filesystem_limits      enabled                        local
zfs-pool  feature@large_blocks           enabled                        local
zfs-pool  feature@large_dnode            enabled                        local
zfs-pool  feature@sha512                 enabled                        local
zfs-pool  feature@skein                  enabled                        local
zfs-pool  feature@edonr                  enabled                        local
zfs-pool  feature@userobj_accounting     active                         local
zfs-pool  feature@encryption             enabled                        local
zfs-pool  feature@project_quota          active                         local
zfs-pool  feature@device_removal         enabled                        local
zfs-pool  feature@obsolete_counts        enabled                        local
zfs-pool  feature@zpool_checkpoint       enabled                        local
zfs-pool  feature@spacemap_v2            active                         local
zfs-pool  feature@allocation_classes     enabled                        local
zfs-pool  feature@resilver_defer         enabled                        local
zfs-pool  feature@bookmark_v2            enabled                        local

Wo ist mein Fehler? Ich dachte mich eigentlich an die verfügbaren Anleitungen gehalten zu haben...

Vielen Dank!

CDrewing

(Themenstarter)
Avatar von CDrewing

Anmeldungsdatum:
6. November 2007

Beiträge: 549

Sch*** Ich glaube mein Pool ist nicht eingehängt und ich schreibe deshalb auf meine root SSD 🤓

Antworten |