Zfs: z_null_int High Disk I/O

Erstellt am 26. Mai 2017  ·  67Kommentare  ·  Quelle: openzfs/zfs

System Information

Typ | Version/Name
--- | ---
Vertriebsname | Arch Linux
Vertriebsversion | N/A (rollend)
Linux-Kernel | 4.11.2
Architektur | x86_64
ZFS-Version | 0.7.0.rc4.r20.gf871ab6ea
SPL-Version | 0.7.0.rc4.r1.g8f87971

Beschreiben Sie das Problem, das Sie beobachten

Mir ist aufgefallen, dass meine Festplatten ständig Geräusche machen, obwohl nichts aktiv I/Os ausgibt. Ich habe zuerst iotop und festgestellt, dass z_null_int sehr damit beschäftigt ist, etwas zu tun:

Total DISK READ :     952.40 B/s | Total DISK WRITE :     552.00 K/s
Actual DISK READ:       0.00 B/s | Actual DISK WRITE:      22.26 M/s
  TID  PRIO  USER     DISK READ  DISK WRITE  SWAPIN      IO    COMMAND
  654 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]
  281 be/4 root        0.00 B/s   44.64 K/s  0.00 %  0.00 % systemd-journald
 1656 be/3 root        0.00 B/s    3.72 K/s  0.00 %  0.00 % ulogd

iostat stimmt zu, dass die Festplatten sehr beschäftigt sind:

avg-cpu:  %user   %nice %system %iowait  %steal   %idle
           0.21    0.00    1.30   11.98    0.00   86.51

Device:         rrqm/s   wrqm/s     r/s     w/s    rMB/s    wMB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
nvme0n1           0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.00   13.33  312.67     0.00     4.64    29.15     0.83    2.51   57.50    0.16   2.48  81.00
sdd               0.00     0.00   13.33  273.67     0.00     3.25    23.20     0.72    2.49   49.25    0.21   2.42  69.33
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdf               0.00     0.00   13.67  274.33     0.00     3.25    23.12     0.73    2.57   50.00    0.21   2.45  70.67
sde               0.00     0.00   13.33  316.00     0.00     4.64    28.85     0.81    2.42   54.75    0.21   2.36  77.67
zram0             0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

Gibt es eine Möglichkeit herauszufinden, was z_null_int macht? Und wie kann man es stoppen?

Der Pool schrubbt oder resilveriert nicht:

  pool: Silmaril
 state: ONLINE
  scan: none requested
config:

        NAME                                             STATE     READ WRITE CKSUM
        Silmaril                                         ONLINE       0     0     0
          mirror-0                                       ONLINE       0     0     0
            ata-HGST_HDN724040ALE640_PK2334PEK3LW3T      ONLINE       0     0     0
            ata-HGST_HDN724040ALE640_PK2334PEK3WEZT      ONLINE       0     0     0
          mirror-1                                       ONLINE       0     0     0
            ata-HGST_HDN724040ALE640_PK2338P4HYVXVC      ONLINE       0     0     0
            ata-HGST_HDN724040ALE640_PK2338P4HYW71C      ONLINE       0     0     0
        logs
          ata-Samsung_SSD_850_PRO_256GB_S251NXAH210160H  ONLINE       0     0     0
        cache
          ata-Samsung_SSD_850_PRO_512GB_S250NXAGB42356V  ONLINE       0     0     0

errors: No known data errors

Beschreiben Sie, wie Sie das Problem reproduzieren können

Unbekannt. Ich weiß nicht, was es verursacht hat.

Fügen Sie alle Warnungen/Fehler/Rückverfolgungen aus den Systemprotokollen ein

Nichts relevantes.

Performance

Hilfreichster Kommentar

Bei mir wurde das Problem gelöst mit:

root<strong i="6">@vmx02</strong>:~# uname -a
Linux vmx02 4.13.16-2-pve #1 SMP PVE 4.13.16-47 (Mon, 9 Apr 2018 09:58:12 +0200) x86_64 GNU/Linux
root<strong i="7">@vmx02</strong>:~# apt-cache policy zfs-initramfs
zfs-initramfs:
  Installed: 0.7.7-pve1~bpo9
  Candidate: 0.7.7-pve1~bpo9
  Version table:
 *** 0.7.7-pve1~bpo9 500
        500 http://download.proxmox.com/debian/pve stretch/pve-no-subscription amd64 Packages
        100 /var/lib/dpkg/status

Ich kann nicht sagen, ob es das Kernel-Update oder das ZFS-Update war :/

Alle 67 Kommentare

Also habe ich alle meine Dateisystem-Snapshots außer dem neuesten weggeblasen. Ich habe einen Cron, der sie alle 2 Wochen macht, und der älteste war Anfang Februar und der neueste war 2017-05-15. Das Beenden der Snapshots hat auch die konstante Festplatten-E/A zerstört, aber ich bin mir nicht ganz sicher, warum.

Ich habe das gleiche Problem unter Ubuntu 17.04 mit Linux 4.11.6 (Ubuntu Mainline) mit SPL 0.7.0-rc4_4_gac48361c und ZFS 0.7.0-rc4_65_gd9ad3fea3b ohne Snapshots. Zusammen mit z_null_int ksoftirqd in iotop > 95 % der Zeit bei 99,9%.

Das System verhält sich ohne größere Einschränkungen (#5867 ist immer noch ein Problem, also nur soweit ich das beurteilen kann).

Das gleiche erlebe ich mit

  • ZFS: 0.7.0_r14_gd19a6d5c8-1
  • SPL: 0.7.0_r7_gcce83ba-1

Bei mir passiert es nur während eines Scrubs auf und aktuellem Arch-System. Scrub ist superlangsam, 5-10 MB/s, und z_null_int wird von iotop Nutzung von 99,99% festgelegt. Pool ist ein gespiegeltes Paar mit aktivierter Deduplizierung.

  • 4.12.3-1-ARCH
  • zfs-linux 0.7.1.4.12.8.2-3 (archzfs-linux)
  • spl-linux 0.7.1.4.12.8.2-3 (archzfs-linux)

Bei mir ist dieses Problem in den letzten Wochen nicht aufgetreten. Jedes Mal, wenn dies jedoch passiert ist, hat das Wegblasen aller meiner Schnappschüsse dazu geführt, dass die Festplatten sofort aufgehört haben. Ich habe nie eine Verschlechterung der E/A-Leistung bemerkt, selbst wenn die schlechten Festplatten missbraucht wurden. Es schien, als würde es nur eine Menge Arbeit leisten, wenn der Pool nicht genutzt wurde? Ich frage mich, ob das von @dpendolino beschriebene Problem irgendwie orthogonal zu diesem ist?

$ pacman -Q | grep -e '^linux-hsw' -e 'zfs' -e 'spl'
linux-hsw 4.12.10-1
linux-hsw-headers 4.12.10-1
spl-dkms 0.7.0.r12.g9df9692-1
spl-utils 0.7.0.r12.g9df9692-1
zfs-auto-snapshot 1:1.2.1.1.r2.049e966-1
zfs-dkms 0.7.0.r46.g2209e4098-1
zfs-utils 0.7.0.r46.g2209e4098-1
zfs-utils-debug 0.7.0.r46.g2209e4098-1

Ich verwende keine Deduplizierung, weil die Kosten dafür beim letzten Versuch sehr hoch waren. Und meine Poolstruktur ist immer noch dieselbe wie in meinem ursprünglichen Bericht (zwei Streifen, gespiegelt).

Ich habe auch geändert, wie ich mit Snapshots umgehe. Das Paket zfs-auto-snapshot in der obigen Liste verarbeitet es. Früher hatte ich einen Cron, der zweimal monatlich (am 1. und 15. des Monats) lief, um einen Snapshot zu erstellen. Jetzt habe ich die viel häufigeren Snapshots von zfs-auto-snapshot verwaltet und bin seitdem nicht mehr auf das Problem gestoßen.

@tycho Ich verwende die Git-Version von zfs-auto-snapshot aus dem AUR. Mein Scrub von gestern tuckert immer noch mit ~10 MB/s =/ Ich habe derzeit ungefähr 48 Snapshots von meinem Pool, vielleicht versuche ich, sie alle so schnell wie möglich zu löschen.

$ pacman -Q | grep -e '^linux' -e 'zfs' -e 'spl'
linux 4.12.3-1
linux-api-headers 4.10.1-1
linux-firmware 20170622.7d2c913-1
linux-headers 4.12.3-1
linux-lts 4.9.47-1
linux-lts-headers 4.9.47-1
spl-linux 0.7.0_4.12.3_1-2
spl-utils-common 0.7.1-2
splix 2.0.0-13
zfs-auto-snapshot-git 1:1.2.1.1.r2.049e966-1
zfs-linux 0.7.0_4.12.3_1-2
zfs-utils-common 0.7.1-2

Gleicher Fehler

CentOS Linux-Version 7.4.1708 (Kern)
Kernel-ml-4.13.9-1.el7.elrepo.x86_64

kmod-spl-devel-0.7.3-1.el7_4.x86_64
kmod-zfs-devel-0.7.3-1.el7_4.x86_64
libzfs2-0.7.3-1.el7_4.x86_64
spl-0.7.3-1.el7_4.x86_64
spl-dkms-0.7.3-1.el7_4.noarch
zfs-0.7.3-1.el7_4.x86_64
zfs-dkms-0.7.3-1.el7_4.noarch
zfs-release-1-5.el7_4.noarch

Das gleiche Problem hier, Dedup und lz4-Komprimierung sind aktiviert.

NAME       PROPERTY              VALUE                  SOURCE
pool       type                  filesystem             -
pool       creation              Mon Oct 23 20:26 2017  -
pool       used                  197G                   -
pool       available             210G                   -
pool       referenced            96K                    -
pool       compressratio         1.17x                  -
pool       mounted               no                     -
pool       quota                 none                   default
pool       reservation           none                   default
pool       recordsize            1M                     local
pool       mountpoint            none                   local
pool       sharenfs              off                    default
pool       checksum              on                     default
pool       compression           lz4                    local
pool       atime                 off                    local
pool       devices               on                     default
pool       exec                  on                     default
pool       setuid                on                     default
pool       readonly              off                    default
pool       zoned                 off                    default
pool       snapdir               hidden                 default
pool       aclinherit            restricted             default
pool       createtxg             1                      -
pool       canmount              on                     default
pool       xattr                 on                     default
pool       copies                2                      local
pool       version               5                      -
pool       utf8only              off                    -
pool       normalization         none                   -
pool       casesensitivity       sensitive              -
pool       vscan                 off                    default
pool       nbmand                off                    default
pool       sharesmb              off                    default
pool       refquota              none                   default
pool       refreservation        none                   default
pool       guid                  6470079991103544842    -
pool       primarycache          metadata               local
pool       secondarycache        all                    default
pool       usedbysnapshots       0B                     -
pool       usedbydataset         96K                    -
pool       usedbychildren        197G                   -
pool       usedbyrefreservation  0B                     -
pool       logbias               latency                default
pool       dedup                 on                     local
pool       mlslabel              none                   default
pool       sync                  disabled               local
pool       dnodesize             legacy                 default
pool       refcompressratio      1.00x                  -
pool       written               96K                    -
pool       logicalused           150G                   -
pool       logicalreferenced     40K                    -
pool       volmode               default                default
pool       filesystem_limit      none                   default
pool       snapshot_limit        none                   default
pool       filesystem_count      none                   default
pool       snapshot_count        none                   default
pool       snapdev               hidden                 default
pool       acltype               off                    default
pool       context               none                   default
pool       fscontext             none                   default
pool       defcontext            none                   default
pool       rootcontext           none                   default
pool       relatime              off                    local
pool       redundant_metadata    all                    default
pool       overlay               off                    default
pool/data  type                  filesystem             -
pool/data  creation              Mon Oct 23 20:26 2017  -
pool/data  used                  196G                   -
pool/data  available             210G                   -
pool/data  referenced            196G                   -
pool/data  compressratio         1.17x                  -
pool/data  mounted               yes                    -
pool/data  quota                 none                   default
pool/data  reservation           none                   default
pool/data  recordsize            1M                     local
pool/data  mountpoint            /data                  local
pool/data  sharenfs              off                    default
pool/data  checksum              on                     default
pool/data  compression           lz4                    inherited from pool
pool/data  atime                 off                    inherited from pool
pool/data  devices               on                     default
pool/data  exec                  on                     default
pool/data  setuid                on                     default
pool/data  readonly              off                    default
pool/data  zoned                 off                    default
pool/data  snapdir               hidden                 default
pool/data  aclinherit            restricted             default
pool/data  createtxg             11                     -
pool/data  canmount              on                     default
pool/data  xattr                 on                     default
pool/data  copies                2                      local
pool/data  version               5                      -
pool/data  utf8only              off                    -
pool/data  normalization         none                   -
pool/data  casesensitivity       sensitive              -
pool/data  vscan                 off                    default
pool/data  nbmand                off                    default
pool/data  sharesmb              off                    default
pool/data  refquota              none                   default
pool/data  refreservation        none                   default
pool/data  guid                  12619517110471224372   -
pool/data  primarycache          metadata               local
pool/data  secondarycache        all                    default
pool/data  usedbysnapshots       0B                     -
pool/data  usedbydataset         196G                   -
pool/data  usedbychildren        0B                     -
pool/data  usedbyrefreservation  0B                     -
pool/data  logbias               latency                default
pool/data  dedup                 on                     inherited from pool
pool/data  mlslabel              none                   default
pool/data  sync                  disabled               local
pool/data  dnodesize             legacy                 default
pool/data  refcompressratio      1.17x                  -
pool/data  written               196G                   -
pool/data  logicalused           150G                   -
pool/data  logicalreferenced     150G                   -
pool/data  volmode               default                default
pool/data  filesystem_limit      none                   default
pool/data  snapshot_limit        none                   default
pool/data  filesystem_count      none                   default
pool/data  snapshot_count        none                   default
pool/data  snapdev               hidden                 default
pool/data  acltype               off                    default
pool/data  context               none                   default
pool/data  fscontext             none                   default
pool/data  defcontext            none                   default
pool/data  rootcontext           none                   default
pool/data  relatime              off                    inherited from pool
pool/data  redundant_metadata    all                    default
pool/data  overlay               off                    default
ii  libzfs2linux                          0.7.3-0york1~16.04                amd64        OpenZFS filesystem library for Linux
ii  libzpool2linux                        0.7.3-0york1~16.04                amd64        OpenZFS pool library for Linux
ii  spl                                   0.7.3-0york1~16.04                amd64        Solaris Porting Layer user-space utilities for Linux
ii  spl-dkms                              0.7.3-0york1~16.04                all          Solaris Porting Layer kernel modules for Linux
ii  zfs-dkms                              0.7.3-0york1~16.04                all          OpenZFS filesystem kernel modules for Linux
ii  zfs-zed                               0.7.3-0york1~16.04                amd64        OpenZFS Event Daemon
ii  zfsutils-linux                        0.7.3-0york1~16.04                amd64        command-line tools to manage OpenZFS filesystems



md5-c4559ad48f32c87ed22d1798e99a2694



/sys/module/zfs/parameters/dbuf_cache_max_bytes: 104857600
/sys/module/zfs/parameters/l2arc_write_boost: 8388608
/sys/module/zfs/parameters/l2arc_write_max: 8388608
/sys/module/zfs/parameters/metaslab_aliquot: 524288
/sys/module/zfs/parameters/spa_config_path: /etc/zfs/zpool.cache
/sys/module/zfs/parameters/spa_load_verify_maxinflight: 10000
/sys/module/zfs/parameters/zfetch_array_rd_sz: 1048576
/sys/module/zfs/parameters/zfetch_max_distance: 67108864
/sys/module/zfs/parameters/zfs_arc_average_blocksize: 8192
/sys/module/zfs/parameters/zfs_arc_max: 80530636800
/sys/module/zfs/parameters/zfs_arc_meta_adjust_restarts: 4096
/sys/module/zfs/parameters/zfs_arc_meta_limit: 21474836480
/sys/module/zfs/parameters/zfs_arc_meta_prune: 10000
/sys/module/zfs/parameters/zfs_dbgmsg_maxsize: 4194304
/sys/module/zfs/parameters/zfs_deadman_checktime_ms: 5000
/sys/module/zfs/parameters/zfs_deadman_synctime_ms: 1000000
/sys/module/zfs/parameters/zfs_delay_scale: 500000
/sys/module/zfs/parameters/zfs_delete_blocks: 20480
/sys/module/zfs/parameters/zfs_dirty_data_max: 15206460620
/sys/module/zfs/parameters/zfs_dirty_data_max_max: 3134265344
/sys/module/zfs/parameters/zfs_dirty_data_sync: 67108864
/sys/module/zfs/parameters/zfs_free_max_blocks: 100000
/sys/module/zfs/parameters/zfs_free_min_time_ms: 1000
/sys/module/zfs/parameters/zfs_immediate_write_sz: 32768
/sys/module/zfs/parameters/zfs_max_recordsize: 1048576
/sys/module/zfs/parameters/zfs_multihost_interval: 1000
/sys/module/zfs/parameters/zfs_pd_bytes_max: 52428800
/sys/module/zfs/parameters/zfs_read_chunk_size: 1048576
/sys/module/zfs/parameters/zfs_resilver_min_time_ms: 3000
/sys/module/zfs/parameters/zfs_scan_min_time_ms: 1000
/sys/module/zfs/parameters/zfs_vdev_aggregation_limit: 262144
/sys/module/zfs/parameters/zfs_vdev_cache_max: 16384
/sys/module/zfs/parameters/zfs_vdev_max_active: 1000
/sys/module/zfs/parameters/zfs_vdev_mirror_rotating_seek_offset: 1048576
/sys/module/zfs/parameters/zfs_vdev_queue_depth_pct: 1000
/sys/module/zfs/parameters/zfs_vdev_raidz_impl: [fastest] original scalar sse2 ssse3 
/sys/module/zfs/parameters/zfs_vdev_read_gap_limit: 32768
/sys/module/zfs/parameters/zfs_vdev_scheduler: deadline
/sys/module/zfs/parameters/zfs_vdev_write_gap_limit: 4096
/sys/module/zfs/parameters/zfs_zevent_len_max: 2048
/sys/module/zfs/parameters/zil_slog_bulk: 786432
/sys/module/zfs/parameters/zio_delay_max: 30000
/sys/module/zfs/parameters/zvol_max_discard_blocks: 16384
/sys/module/zfs/parameters/zvol_prefetch_bytes: 131072

Ich habe dies auch, aber ich habe einen gespiegelten Pool auf einem ProxMox.
Ich habe den Spiegel entfernt, ich habe das gleiche Problem.

Das Töten des PID führt nur dazu, dass ein anderer startet, ich erhalte nach dem Töten für eine Weile etwas schnelle Geschwindigkeiten.

Gerade neu gestartet und die Box hat sich mit der Geschwindigkeit wieder normalisiert. Allerdings habe ich swappienes auf = 1 geändert

Ich habe das gleiche Problem. Es sieht so aus, als ob es viel schlimmer wird, sobald Dedup aktiviert ist oder Snapshots vorhanden sind.

Ich habe mein Laufwerk auf ext4 verschoben, da es mein System langsam ertränkte :(

Ich habe das gleiche Problem mit hoher z_null_int IO auf Proxmox 5.1 mit Kernel 4.13.x und ZFS 0.7.3. Ich verwende 2 Pools von ZFS RAID1, zfs_arc_max ist auf 1 GB begrenzt, kein ZFS-Snapshot und ohne Deduplizierung.

Ist diese z_null_int High IO für ZFS 0.7.3 normal? Ich habe es nie auf iotop gefangen, als es auf ZFS 0.6.x war.

Angehängte Dateien sind die ZFS-Details und Screenshots.

proxmox 5 1 zfs 0 7 3 z_null_int high io
proxmox 5.1 zfs 0.7.3 z_null_int high io.txt

Ich habe das gleiche 99,99% iowait auf z_null_int mit

Ich habe alle Snapshots entfernt, es ändert nichts

Gleiches Problem bei Proxmox 5.1, Kernel 4.13.4 und ZFS 0.7.3. Keine Snapshots oder Deduplizierung, 2 Pools (RAIDZ1 (mit L2ARC und ZIL auf SSD) und einzelnes Laufwerk).

Um uns bei der Eingrenzung der Ursache zu helfen, kann jemand bitte die folgenden Debugging-Funktionen bereitstellen, wenn das Problem auftritt.

# Enable TXG history (the last 32 TXGs)
echo 32 >/sys/module/zfs/parameters/zfs_txg_history

# Wait 30 seconds then dump the TXG history and TX stats
cat /proc/spl/kstat/zfs/<pool>/txgs
cat /proc/spl/kstat/zfs/dmu_tx
# Enable internal debug log
echo 1 >/sys/module/zfs/parameters/zfs_dbgmsg_enable

# Wait 30 seconds then dump the internal log.
cat /proc/spl/kstat/zfs/dbgmsg 

@behlendorf hier gehört mir

  • Linux bacztwo 4.12.14-gentoo #1 SMP Mi 25. Okt 02:00:01 CST 2017 x86_64 Intel(R) Xeon(R) CPU E3-1231 v3 @ 3.40GHz GenuineIntel GNU/Linux
  • Version: 0.7.3-r0-gentoo

@behlendorf
Aktualisiert:
https://www.andcycle.idv.tw/~andcycle/tmp/tmp/20171130/zfs-debug-20171130-2.log.tar.gz

Ich sollte das Protokoll in einem einzigen Schuss entsorgen

Ich kann versuchen, eine Debian (Proxmox)-Box zu starten, wenn Sie mehr Protokolle / Informationen benötigen

@AndCycle danke für die Protokolle. Leider zeigen sie nicht klar, was die IO verursacht. Könnten Sie versuchen, ein paar Stack-Traces von zio_null_int Threads abzurufen, wenn diese aktiv sind. Sie werden für ein paar verschiedene Operationen verwendet, also sollte dies helfen, dies einzugrenzen.

cat /proc/<zio_null_int pid>/stack

@cooljimy84 danke für das Angebot, aber ich denke, was am hilfreichsten wäre, wäre ein Reproduzierer gegen die Veröffentlichung oder den Master von 0.7.3. Ich konnte dieses Verhalten lokal nicht reproduzieren.

Am Do, 30. November 2017 um 23:10 Uhr schrieb AndCycle [email protected] :

@behlendorf https://github.com/behlendorf oops, aus gutem Grund mein System
hat den Stack-Pfad nicht, habe ich die Kernel-Konfiguration durcheinander gebracht?

/proc/PID/stack wird nur angezeigt, wenn Sie CONFIG_STACKTRACE in Ihrem Kernel haben (wird unter "Kernel-Hacking" in menuconfig angezeigt).

@tycho danke :)

@behlendorf hier ist es

Total DISK READ :       8.45 M/s | Total DISK WRITE :     303.16 K/s
Actual DISK READ:       4.07 M/s | Actual DISK WRITE:       2.28 M/s
  TID  PRIO  USER     DISK READ  DISK WRITE  SWAPIN     IO>    COMMAND
10762 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]
 8017 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]
 9592 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]
 9136 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]
 4645 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]
   24 be/4 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [ksoftirqd/3]
 8431 be/4 qemu      108.21 K/s   20.19 K/s  0.00 %  0.00 % qemu-system-x86_64 -name guest=Win10_JP_P2P,debug-threads=on -S -object secret,id=master~-device virtio-rng-pci,rng=objrng0,id=rng0,bus=pci.7,addr=0x0 -msg timestamp=on [worker]
 8479 be/4 qemu       96.53 K/s   11.36 K/s  0.00 %  0.00 % qemu-system-x86_64 -name guest=Win10_JP_P2P,debug-threads=on -S -object secret,id=master~-device virtio-rng-pci,rng=objrng0,id=rng0,bus=pci.7,addr=0x0 -msg timestamp=on [worker]
 8518 be/4 qemu      240.07 K/s    0.00 B/s  0.00 %  0.00 % qemu-system-x86_64 -name guest=Win10_JP_P2P,debug-threads=on -S -object secret,id=master~-device virtio-rng-pci,rng=objrng0,id=rng0,bus=pci.7,addr=0x0 -msg timestamp=on [worker]
25066 be/4 qemu      106.00 K/s   13.88 K/s  0.00 %  0.00 % qemu-system-x86_64 -name guest=Win10_JP_P2P,debug-threads=on -S -object secret,id=master~-device virtio-rng-pci,rng=objrng0,id=rng0,bus=pci.7,addr=0x0 -msg timestamp=on [worker]
25068 be/4 qemu       96.53 K/s    0.00 B/s  0.00 %  0.00 % qemu-system-x86_64 -name guest=Win10_JP_P2P,debug-threads=on -S -object secret,id=master~-device virtio-rng-pci,rng=objrng0,id=rng0,bus=pci.7,addr=0x0 -msg timestamp=on [worker]
25070 be/4 qemu      153.95 K/s    0.00 B/s  0.00 %  0.00 % qemu-system-x86_64 -name guest=Win10_JP_P2P,debug-threads=on -S -object secret,id=master~-device virtio-rng-pci,rng=objrng0,id=rng0,bus=pci.7,addr=0x0 -msg timestamp=on [worker]
10230 be/4 qemu      107.89 K/s    0.00 B/s  0.00 %  0.00 % qemu-system-x86_64 -name guest=Win10_JP_P2P,debug-threads=on -S -object secret,id=master~-device virtio-rng-pci,rng=objrng0,id=rng0,bus=pci.7,addr=0x0 -msg timestamp=on [worker]
18424 be/4 dnslog      0.00 B/s  323.04 B/s  0.00 %  0.00 % multilog t ./main

bacztwo ~ # ps ax|grep z_null_int |grep -v pts | awk '{print $1}'| while read i; do cat /proc/$i/stack; done
[<ffffffffa031608b>] taskq_thread+0x42b/0x550 [spl]
[<ffffffff810bd6ce>] kthread+0xfe/0x130
[<ffffffff819c0e02>] ret_from_fork+0x22/0x30
[<ffffffffffffffff>] 0xffffffffffffffff
[<ffffffffa031608b>] taskq_thread+0x42b/0x550 [spl]
[<ffffffff810bd6ce>] kthread+0xfe/0x130
[<ffffffff819c0e02>] ret_from_fork+0x22/0x30
[<ffffffffffffffff>] 0xffffffffffffffff
[<ffffffffa031608b>] taskq_thread+0x42b/0x550 [spl]
[<ffffffff810bd6ce>] kthread+0xfe/0x130
[<ffffffff819c0e02>] ret_from_fork+0x22/0x30
[<ffffffffffffffff>] 0xffffffffffffffff
[<ffffffffa031608b>] taskq_thread+0x42b/0x550 [spl]
[<ffffffff810bd6ce>] kthread+0xfe/0x130
[<ffffffff819c0e02>] ret_from_fork+0x22/0x30
[<ffffffffffffffff>] 0xffffffffffffffff
[<ffffffffa031608b>] taskq_thread+0x42b/0x550 [spl]
[<ffffffff810bd6ce>] kthread+0xfe/0x130
[<ffffffff819c0e02>] ret_from_fork+0x22/0x30
[<ffffffffffffffff>] 0xffffffffffffffff
[<ffffffffa031608b>] taskq_thread+0x42b/0x550 [spl]
[<ffffffff810bd6ce>] kthread+0xfe/0x130
[<ffffffff819c0e02>] ret_from_fork+0x22/0x30
[<ffffffffffffffff>] 0xffffffffffffffff

Die Stack-Traces sind für die Ausführung von Tasks in der Regel nicht nützlich. Wenn jeder, der in den zio-Null-Threads eine hohe CPU meldet, ein l2arc-Gerät hat, vermute ich, dass dies die Ursache sein kann, da l2arc-Schreibvorgänge an diese Threads gesendet werden. Ein gutes Experiment wäre, das l2arc-Gerät zu entfernen und zu sehen, ob die übermäßige CPU aufhört.

@dweeezil eigentlich ist es keine hohe CPU-Auslastung, es hängt einfach dort auf iotop,
und ich habe kein L2ARC, ich denke das kann ausgeschlossen werden.

@AndCycle Tatsächlich. Das heißt, l2arc ist eine der Anwendungen für diese Taskqs. Ich würde auch vorschlagen, dass jeder, der dieses Problem hat, mit cat /proc/spl/taskq und/oder auch mit perf top -g Informationen erhält und nach Aktivitäten sucht, die dazu führen, dass Null-Zios erstellt werden; möglicherweise im Zusammenhang mit MMP. Ein guter Ausgangspunkt könnte sein, einige Stack-Traces zu erfassen, wenn zio_null() aufgerufen wird. Möglicherweise wird es sogar als Ablaufverfolgungsereignis mit perf probe -m zfs -a zio_null hinzugefügt.

Ich habe die gleichen Ergebnisse über verschiedene Knoten hinweg erhalten. Es scheint, dass jeder Pool seinen eigenen 99,99% IO z_null_int Thread in iotop hervorbringt. Könnten 99,99% IO sein, dass ZFS eine Lese-Schreib-Spiegeloperation innerhalb der Pool-vdevs durchführt und iotop die Lese- und Schreibgröße nicht richtig auflisten kann?

Irgendwie konnte ich perf in Proxmox 5.1 nicht verwenden, da es mit Kernel 4.13 geliefert wird und das Paket linux-perf von Debian Stretch für Kernel 4.9 ist.

##
# Proxmox 5.1 with kernel 4.13 and ZFS 0.7.3 with only 1 rpool pool mirror ZFS RAID1.
##

root<strong i="7">@proxmox1</strong>:~# ps ax | grep z_null_int | grep -v pts | awk '{print $1}' | while read i; do cat /proc/$i/stack; done
[<ffffffffc03049f0>] taskq_thread+0x3e0/0x460 [spl]
[<ffffffffb64a58e9>] kthread+0x109/0x140
[<ffffffffb6d32875>] ret_from_fork+0x25/0x30
[<ffffffffffffffff>] 0xffffffffffffffff

root<strong i="8">@proxmox1</strong>:~# iotop
    TID  PRIO  USER     DISK READ  DISK WRITE  SWAPIN     IO>    COMMAND
    371 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]

##
# Proxmox 5.1 with kernel 4.13 and ZFS 0.7.3 with 2 rpool and dpool pools of mirror ZFS RAID1.
##

root<strong i="9">@node1</strong>:~# ps ax | grep z_null_int | grep -v pts | awk '{print $1}' | while read i; do cat /proc/$i/stack; done
[<ffffffffc033c9f0>] taskq_thread+0x3e0/0x460 [spl]
[<ffffffff8fca58e9>] kthread+0x109/0x140
[<ffffffff90532875>] ret_from_fork+0x25/0x30
[<ffffffffffffffff>] 0xffffffffffffffff
[<ffffffffc033c9f0>] taskq_thread+0x3e0/0x460 [spl]
[<ffffffff8fca58e9>] kthread+0x109/0x140
[<ffffffff90532875>] ret_from_fork+0x25/0x30
[<ffffffffffffffff>] 0xffffffffffffffff

root<strong i="10">@node1</strong>:~# iotop 
    TID  PRIO  USER     DISK READ  DISK WRITE  SWAPIN     IO>   COMMAND
    491 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]
      2803 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]

Entschuldigung, ich habe nicht das Wissen zum Debuggen, da ich die meiste Zeit mit Python und HTML schreibe.
habe gerade den Kernel mit kprobe kompiliert, damit perf damit arbeiten kann

# perf probe -m zfs -a zio_null
# perf record -e probe:zio_null -aR sleep 30

https://www.andcycle.idv.tw/~andcycle/tmp/tmp/20171203/perf.data.gz
Ich weiß nicht, ob das hilft, kann ich etwas tun, um zu helfen?

--
Übrigens ist die 0.7.3 anfällig dafür, eine 100%ige kworker-CPU-Auslastung zu verursachen und das System zu blockieren, wenn ich heftige Dateisperrkonflikte von emerge -e --jobs 4 @world ausführe, was nur das parallele Build/Install-Paket bedeutet.
muss wahrscheinlich ein anderes Problem auslösen.

Ich kann dies leicht reproduzieren, indem ich eine 100%ige Schreiblast ausführe und die ARC-Größe einschränke, da die "IO" -Spalte in iotop eine _wartezeit_ zeigt. In diesem Fall werden die meisten Null-Zios von dmu_buf_hold_array_by_dnode() und auch in dbuf_read() (dem DB_UNCACHED-Fall) erstellt.

Hat jemand, der dieses Problem meldet, eingeschränkte ARC- oder niedrige ARC-Trefferraten?

@AndCycle Was die Verwendung von perf betrifft , würde ich empfehlen, perf record -ag -e zio_null für eine Weile auszuführen, wenn das Problem beobachtet wird, und es dann zu unterbrechen. Dann können Sie entweder "perf report" ausführen und die Taste "E" drücken, um die Anrufketten anzuzeigen, oder Sie können "perf report > somefile" ausführen, wodurch eine Textdatei mit allen erweiterten Anrufketten erstellt wird.

Zumindest bei schlechten Cache-Raten werden die Null-Zio-Threads definitiv hohe IO-Wartezeiten aufweisen.

Ach deshalb. Schöner Fund @dweeezil !

Bei einer 64-GB-Proxmox-Box haben wir den ARC auf 1 GB beschränkt, sodass 3 GB für das Host-Betriebssystem und 60 GB für Gast-VMs übrig bleiben.

Nach dem Upgrade auf ZFS 0.7.x sanken die ARC-Trefferraten auf rund 30 %. Früher waren es 70-80% auf dem vorherigen ZFS 0.6.x.

Als zweites nach diesem Problem mit der Trefferquote liegt die Trefferquote vor 0,7 bei etwa 80%, seit dem Wechsel zum Zweig 0,7 sinkt sie auf fast Null.

Möglicherweise verwandt mit #6852.

Falls ein weiterer guter Fall für die Reproduktion benötigt wird: Checkouts zwischen verschiedenen Zweigen von https://github.com/dmlloyd/openjdk.git , zB jdk/jdk , jdk6/jdk6 , jdk8u/jdk8u verursachen eine hohe Last und benötigen bis zu 10 Minuten fast ohne E/A-Rate.

@krichter722 In einer (

ubuntu<strong i="7">@ubuntu</strong>:/tank/fs/openjdk$ git status
On branch jdk10/master
Your branch is up to date with 'origin/jdk10/master'.

nothing to commit, working tree clean
ubuntu<strong i="8">@ubuntu</strong>:/tank/fs/openjdk$ time git checkout origin/jdk9/jdk9
Note: checking out 'origin/jdk9/jdk9'.

You are in 'detached HEAD' state. You can look around, ...

HEAD is now at 7d7fbd09fcf... Merge from 'jdk'

real    0m51.422s
user    0m8.355s
sys 0m15.248s
ubuntu<strong i="9">@ubuntu</strong>:/tank/fs/openjdk$ time git checkout origin/jdk6/jdk6
Previous HEAD position was 7d7fbd09fcf... Merge from 'jdk'
HEAD is now at e27d58ae1d4... Merge from 'jdk'

real    0m49.802s
user    0m5.185s
sys 0m7.811s
ubuntu<strong i="10">@ubuntu</strong>:/tank/fs/openjdk$ time git checkout origin/jdk7u/jdk7u
Previous HEAD position was e27d58ae1d4... Merge from 'jdk'
HEAD is now at 524a884c565... Merge from 'jdk'

real    0m22.568s
user    0m4.313s
sys 0m4.003s

Dieser Pool besteht aus 4 WD400EFRX-Laufwerken, die mit virtio-scsi mit der VM verbunden sind, erstellt mit "zpool create tank mirror sdb sdc mirror sdd sde" und ohne jegliche Eigenschaftsänderungen:

    tank        ONLINE       0     0     0
      mirror-0  ONLINE       0     0     0
        sdb     ONLINE       0     0     0
        sdc     ONLINE       0     0     0
      mirror-1  ONLINE       0     0     0
        sdd     ONLINE       0     0     0
        sde     ONLINE       0     0     0

Als die ARC-Trefferrate niedrig war, tauchte der zio-Null-Thread sicherlich in iotop auf, aber insgesamt sehen diese Zeiten nicht allzu schrecklich aus; sicherlich nicht annähernd 10 Minuten.

@krichter722 Wie @behlendorf vorgeschlagen hat, würde jede Art von ARC-Zusammenbruch sicherlich das von Ihnen beschriebene Verhalten verursachen. In meinem obigen Test hatte die VM jedoch nur 4 GB RAM, sodass der ARC auf 2 GB begrenzt war, aber selbst nach all diesen Checkouts ging er nie über 1,4 GB. Es wäre interessant zu wissen, wie sich Ihr ARC verhält, wenn Sie dieses Verhalten sehen.

Mein System ist proxmox 5.1 zfs 0.7.2 mit 128 GB RAM. Im Moment läuft nur eine VM mit 16 GB RAM und eine Zvol mit Writeback und Discard.

Ich habe das gleiche Problem z_null_init iotop 99% , und mein arc_summary meldet eine sehr hohe Fehltrefferquote.
Irgendeine Problemumgehung für das Arc-Miss-Verhältnis?

arc_summary


ZFS Subsystem Report Do 07. Dez. 19:17:00 2017
ARC Zusammenfassung: (GESUND)
Speicherdrosselzahl: 0

ARC Sonstiges:
Gelöscht: 72
Mutex-Verfehlungen: 0
Überspringt räumen: 0

ARC-Größe: 1,88% 1,18 GiB
Zielgröße: (adaptiv) 100,00 % 62,91 GiB
Mindestgröße (harte Grenze): 6,25% 3,93 GiB
Max. Größe (Hochwasser): 16:1 62,91 GiB

Aufschlüsselung der ARC-Größe:
Kürzlich verwendete Cache-Größe: 50,00 % 31,46 GiB
Häufig verwendete Cachegröße: 50,00 % 31,46 GiB

ARC-Hash-Aufschlüsselung:
Elemente Max: 148,78 k
Elementstrom: 100,00% 148,77k
Kollisionen: 890
Kette max: 2
Ketten: 469

ARC Gesamtzugriffe: 199,57 k
Cache-Trefferquote: 8,18% 16,32k
Cache-Miss-Verhältnis: 91,82% 183,25k
Tatsächliche Trefferquote: 6.18% 12.34k

Data Demand Efficiency:     6.56%   155.00k
Data Prefetch Efficiency:   6.61%   11.75k

CACHE HITS BY CACHE LIST:
  Anonymously Used:     24.38%  3.98k
  Most Recently Used:       62.60%  10.22k
  Most Frequently Used:     13.02%  2.12k
  Most Recently Used Ghost: 0.00%   0
  Most Frequently Used Ghost:   0.00%   0

CACHE HITS BY DATA TYPE:
  Demand Data:          62.29%  10.16k
  Prefetch Data:        4.76%   777
  Demand Metadata:      13.27%  2.17k
  Prefetch Metadata:        19.69%  3.21k

CACHE MISSES BY DATA TYPE:
  Demand Data:          79.04%  144.84k
  Prefetch Data:        5.99%   10.97k
  Demand Metadata:      14.57%  26.69k
  Prefetch Metadata:        0.41%   747

DMU-Prefetch-Effizienz: 278,42 k
Trefferquote: 2.31% 6.42k
Fehlschussquote: 97,69 % 272,00 k

ZFS-abstimmbar:
zvol_volmode 1
l2arc_headroom 2
dbuf_cache_max_shift 5
zfs_free_leak_on_eio 0
zfs_free_max_blocks 100000
zfs_read_chunk_size 1048576
metaslab_preload_enabled 1
zfs_dedup_prefetch 0
zfs_txg_history 0
zfs_scrub_delay 4
zfs_vdev_async_read_max_active 3
zfs_read_history 0
zfs_arc_sys_free 0
l2arc_write_max 8388608
zil_slog_bulk 786432
zfs_dbuf_state_index 0
zfs_sync_taskq_batch_pct 75
metaslab_debug_unload 0
zvol_inhibit_dev 0
zfs_abd_scatter_enabled 1
zfs_arc_pc_percent 0
zfetch_max_streams 8
zfs_recover 0
metaslab_fragmentation_factor_enabled 1
zfs_deadman_checktime_ms 5000
zfs_sync_pass_rewrite 2
zfs_object_mutex_size 64
zfs_arc_min_prefetch_lifespan 0
zfs_arc_meta_prune 10000
zfs_read_history_hits 0
zfetch_max_distance 8388608
l2arc_norw 0
zfs_dirty_data_max_percent 10
zfs_per_txg_dirty_frees_percent 30
zfs_arc_meta_min 0
metaslabs_per_vdev 200
zfs_arc_meta_adjust_restarts 4096
spa_load_verify_maxinflight 10000
spa_load_verify_metadata 1
zfs_multihost_history 0
zfs_send_corrupt_data 0
zfs_delay_min_dirty_percent 60
zfs_vdev_sync_read_max_active 10
zfs_dbgmsg_enable 0
zfs_metaslab_segment_weight_enabled 1
zio_requeue_io_start_cut_in_line 1
l2arc_headroom_boost 200
zfs_zevent_cols 80
zfs_dmu_offset_next_sync 0
spa_config_path /etc/zfs/zpool.cache
zfs_vdev_cache_size 0
dbuf_cache_hiwater_pct 10
zfs_multihost_interval 1000
zfs_multihost_fail_intervals 5
zio_dva_throttle_enabled 1
zfs_vdev_sync_write_min_active 10
zfs_vdev_scrub_max_active 2
ignore_hole_birth 1
zvol_major 230
zil_replay_disable 0
zfs_dirty_data_max_max_percent 25
zfs_expire_snapshot 300
zfs_sync_pass_deferred_free 2
spa_asize_inflation 24
dmu_object_alloc_chunk_shift 7
zfs_vdev_mirror_rotating_seek_offset 1048576
l2arc_feed_secs 1
zfs_autoimport_disable 1
zfs_arc_p_aggressive_disable 1
zfs_zevent_len_max 384
zfs_arc_meta_limit_percent 75
l2arc_noprefetch 1
zfs_vdev_raidz_impl [schnellster] Originalskalar sse2 ssse3 avx2
zfs_arc_meta_limit 0
zfs_flags 0
zfs_dirty_data_max_max 4294967296
zfs_arc_average_blocksize 8192
zfs_vdev_cache_bshift 16
zfs_vdev_async_read_min_active 1
zfs_arc_dnode_reduce_percent 10
zfs_free_bpobj_enabled 1
zfs_arc_grow_retry 0
zfs_vdev_mirror_rotating_inc 0
l2arc_feed_again 1
zfs_vdev_mirror_non_rotating_inc 0
zfs_arc_lotsfree_percent 10
zfs_zevent_console 0
zvol_prefetch_bytes 131072
zfs_free_min_time_ms 1000
zfs_arc_dnode_limit_percent 10
zio_taskq_batch_pct 75
dbuf_cache_max_bytes 104857600
spa_load_verify_data 1
zfs_delete_blocks 20480
zfs_vdev_mirror_non_rotating_seek_inc 1
zfs_multihost_import_intervals 10
zfs_dirty_data_max 4294967296
zfs_vdev_async_write_max_active 10
zfs_dbgmsg_maxsize 4194304
zfs_nocacheflush 0
zfetch_array_rd_sz 1048576
zfs_arc_meta_strategy 1
zfs_dirty_data_sync 67108864
zvol_max_discard_blocks 16384
zvol_threads 32
zfs_vdev_async_write_active_max_dirty_percent 60
zfs_arc_p_dampener_disable 1
zfs_txg_timeout 5
metaslab_aliquot 524288
zfs_mdcomp_disable 0
zfs_vdev_sync_read_min_active 10
zfs_arc_dnode_limit 0
dbuf_cache_lowater_pct 10
zfs_abd_scatter_max_order 10
metaslab_debug_load 0
zfs_vdev_aggregation_limit 131072
metaslab_lba_weighting_enabled 1
zfs_vdev_scheduler noop
zfs_vdev_scrub_min_active 1
zfs_no_scrub_io 0
zfs_vdev_cache_max 16384
zfs_scan_idle 50
zfs_arc_shrink_shift 0
spa_slop_shift 5
zfs_vdev_mirror_rotating_seek_inc 5
zfs_deadman_synctime_ms 1000000
send_holes_without_birth_time 1
metaslab_bias_enabled 1
zvol_request_sync 0
zfs_admin_snapshot 1
zfs_no_scrub_prefetch 0
zfs_metaslab_fragmentation_threshold 70
zfs_max_recordsize 1048576
zfs_arc_min 0
zfs_nopwrite_enabled 1
zfs_arc_p_min_shift 0
zfs_multilist_num_sublists 0
zfs_vdev_queue_depth_pct 1000
zfs_mg_fragmentation_threshold 85
l2arc_write_boost 8388608
zfs_prefetch_disable 0
l2arc_feed_min_ms 200
zio_delay_max 30000
zfs_vdev_write_gap_limit 4096
zfs_pd_bytes_max 52428800
zfs_scan_min_time_ms 1000
zfs_resilver_min_time_ms 3000
zfs_delay_scale 500000
zfs_vdev_async_write_active_min_dirty_percent 30
zfs_vdev_sync_write_max_active 10
zfs_mg_noalloc_threshold 0
zfs_deadman_enabled 1
zfs_resilver_delay 2
zfs_metaslab_switch_threshold 2
zfs_arc_max 0
zfs_top_maxinflight 32
zfetch_min_sec_reap 2
zfs_immediate_write_sz 32768
zfs_vdev_async_write_min_active 2
zfs_sync_pass_dont_compress 5
zfs_vdev_read_gap_limit 32768
zfs_compressed_arc_enabled 1
zfs_vdev_max_active 1000

Ich glaube nicht, dass es das war... mein System hat eine relativ hohe Cache-Trefferquote, zeigt aber das gleiche Verhalten. Ich habe L2ARC, unten nicht gezeigt

ZFS Subsystem Report                Thu Dec 07 10:42:43 2017
ARC Summary: (HEALTHY)
    Memory Throttle Count:          0

ARC Misc:
    Deleted:                25.56m
    Mutex Misses:               668
    Evict Skips:                668

ARC Size:               86.38%  6.76    GiB
    Target Size: (Adaptive)     86.91%  6.80    GiB
    Min Size (Hard Limit):      6.25%   500.67  MiB
    Max Size (High Water):      16:1    7.82    GiB

ARC Size Breakdown:
    Recently Used Cache Size:   7.07%   492.37  MiB
    Frequently Used Cache Size: 92.93%  6.32    GiB

ARC Hash Breakdown:
    Elements Max:               1.77m
    Elements Current:       26.98%  477.21k
    Collisions:             15.63m
    Chain Max:              9
    Chains:                 46.04k

ARC Total accesses:                 344.38m
    Cache Hit Ratio:        91.73%  315.89m
    Cache Miss Ratio:       8.27%   28.49m
    Actual Hit Ratio:       91.42%  314.83m

    Data Demand Efficiency:     99.79%  305.43m
    Data Prefetch Efficiency:   16.80%  30.14m

    CACHE HITS BY CACHE LIST:
      Anonymously Used:     0.18%   577.06k
      Most Recently Used:       8.47%   26.76m
      Most Frequently Used:     91.19%  288.07m
      Most Recently Used Ghost: 0.06%   175.70k
      Most Frequently Used Ghost:   0.10%   313.54k

    CACHE HITS BY DATA TYPE:
      Demand Data:          96.49%  304.80m
      Prefetch Data:        1.60%   5.06m
      Demand Metadata:      1.57%   4.96m
      Prefetch Metadata:        0.34%   1.07m

    CACHE MISSES BY DATA TYPE:
      Demand Data:          2.24%   637.76k
      Prefetch Data:        88.01%  25.08m
      Demand Metadata:      8.18%   2.33m
      Prefetch Metadata:        1.57%   448.21k

Stack-Trace aus dem z_null_int Prozess:

[<ffffffffc047c703>] taskq_thread+0x3a3/0x470 [spl]
[<ffffffffbc09c718>] kthread+0x118/0x130
[<ffffffffbc663f45>] ret_from_fork+0x25/0x30
[<ffffffffffffffff>] 0xffffffffffffffff

(mehrmaliges Ausführen über einen Zeitraum von 10 Minuten erzeugt jedes Mal die gleiche Ausgabe)

Dieser Fehler verursacht lächerliche Verlangsamungen auf meinem System. Es kommt so weit, dass sogar nur "ls" 30 Sekunden lang hängen kann.

Das passierte mir, als ich beschloss, die Deduplizierung für einige Datensätze zu aktivieren. Ich kopiere die Daten aus den Datasets in neue Datasets mit deaktivierter Dedup-Funktion und vernichte dann die Dedup-Datasets, um zu sehen, ob das Problem dadurch behoben wird. Aufgrund dieses Fehlers dauert es jedoch ewig.

Ich habe kein L2ARC.

`

ZFS Subsystem Report So 17 Dez. 00:58:15 2017
ARC Zusammenfassung: (GESUND)
Speicherdrosselzahl: 0

ARC Sonstiges:
Gelöscht: 10,56 M
Mutex-Verfehlungen: 307
Räumungssprünge: 1.10k

ARC-Größe: 80,27% 12,58 GiB
Zielgröße: (adaptiv) 100,00 % 15,67 GiB
Mindestgröße (harte Grenze): 6,25% 1002,77 MiB
Maximale Größe (Hochwasser): 16:1 15,67 GiB

Aufschlüsselung der ARC-Größe:
Kürzlich verwendete Cache-Größe: 79,30 % 7,28 GiB
Häufig verwendete Cachegröße: 20,70 % 1,90 GiB

ARC-Hash-Aufschlüsselung:
Elemente Max: 1,25M
Elementstrom: 45,38 % 569,08 k
Kollisionen: 3,04 M
Kette max: 6
Ketten: 35,72 k

ARC Zugriffe insgesamt: 39,49 Mio.
Cache-Trefferquote: 62,11 % 24,53 Mio.
Cache-Miss-Verhältnis: 37,89% 14,97M
Tatsächliche Trefferquote: 44,93% 17,74 Mio.

Data Demand Efficiency:     90.15%  7.79M
Data Prefetch Efficiency:   48.35%  13.76M

CACHE HITS BY CACHE LIST:
  Anonymously Used:     6.48%   1.59M
  Most Recently Used:       43.51%  10.67M
  Most Frequently Used:     28.83%  7.07M
  Most Recently Used Ghost: 16.75%  4.11M
  Most Frequently Used Ghost:   4.43%   1.09M

CACHE HITS BY DATA TYPE:
  Demand Data:          28.65%  7.03M
  Prefetch Data:        27.12%  6.65M
  Demand Metadata:      43.32%  10.62M
  Prefetch Metadata:        0.92%   225.01k

CACHE MISSES BY DATA TYPE:
  Demand Data:          5.13%   767.77k
  Prefetch Data:        47.48%  7.11M
  Demand Metadata:      45.94%  6.88M
  Prefetch Metadata:        1.45%   216.52k

DMU-Prefetch-Effizienz: 46,11 M
Trefferquote: 11,82 % 5,45 Mio.
Fehlschussquote: 88,18 % 40,66 M

ZFS-stimmbares:
dbuf_cache_hiwater_pct 10
dbuf_cache_lowater_pct 10
dbuf_cache_max_bytes 104857600
dbuf_cache_max_shift 5
dmu_object_alloc_chunk_shift 7
ignore_hole_birth 1
l2arc_feed_again 1
l2arc_feed_min_ms 200
l2arc_feed_secs 1
l2arc_headroom 2
l2arc_headroom_boost 200
l2arc_noprefetch 1
l2arc_norw 0
l2arc_write_boost 8388608
l2arc_write_max 8388608
metaslab_aliquot 524288
metaslab_bias_enabled 1
metaslab_debug_load 0
metaslab_debug_unload 0
metaslab_fragmentation_factor_enabled 1
metaslab_lba_weighting_enabled 1
metaslab_preload_enabled 1
metaslabs_per_vdev 200
send_holes_without_birth_time 1
spa_asize_inflation 24
spa_config_path /etc/zfs/zpool.cache
spa_load_verify_data 1
spa_load_verify_maxinflight 10000
spa_load_verify_metadata 1
spa_slop_shift 5
zfetch_array_rd_sz 1048576
zfetch_max_distance 8388608
zfetch_max_streams 8
zfetch_min_sec_reap 2
zfs_abd_scatter_enabled 1
zfs_abd_scatter_max_order 10
zfs_admin_snapshot 1
zfs_arc_average_blocksize 8192
zfs_arc_dnode_limit 0
zfs_arc_dnode_limit_percent 10
zfs_arc_dnode_reduce_percent 10
zfs_arc_grow_retry 0
zfs_arc_lotsfree_percent 10
zfs_arc_max 0
zfs_arc_meta_adjust_restarts 4096
zfs_arc_meta_limit 0
zfs_arc_meta_limit_percent 75
zfs_arc_meta_min 0
zfs_arc_meta_prune 10000
zfs_arc_meta_strategy 1
zfs_arc_min 0
zfs_arc_min_prefetch_ms 0
zfs_arc_min_prescient_prefetch_ms 0
zfs_arc_p_aggressive_disable 1
zfs_arc_p_dampener_disable 1
zfs_arc_p_min_shift 0
zfs_arc_pc_percent 0
zfs_arc_shrink_shift 0
zfs_arc_sys_free 0
zfs_autoimport_disable 1
zfs_compressed_arc_enabled 1
zfs_dbgmsg_enable 0
zfs_dbgmsg_maxsize 4194304
zfs_dbuf_state_index 0
zfs_deadman_checktime_ms 5000
zfs_deadman_enabled 1
zfs_deadman_synctime_ms 1000000
zfs_dedup_prefetch 0
zfs_delay_min_dirty_percent 60
zfs_delay_scale 500000
zfs_delete_blocks 20480
zfs_dirty_data_max 3364727193
zfs_dirty_data_max_max 4294967296
zfs_dirty_data_max_max_percent 25
zfs_dirty_data_max_percent 10
zfs_dirty_data_sync 67108864
zfs_dmu_offset_next_sync 0
zfs_expire_snapshot 300
zfs_flags 0
zfs_free_bpobj_enabled 1
zfs_free_leak_on_eio 0
zfs_free_max_blocks 100000
zfs_free_min_time_ms 1000
zfs_immediate_write_sz 32768
zfs_key_max_salt_uses 400000000
zfs_max_recordsize 1048576
zfs_mdcomp_disable 0
zfs_metaslab_fragmentation_threshold 70
zfs_metaslab_segment_weight_enabled 1
zfs_metaslab_switch_threshold 2
zfs_mg_fragmentation_threshold 85
zfs_mg_noalloc_threshold 0
zfs_multihost_fail_intervals 5
zfs_multihost_history 0
zfs_multihost_import_intervals 10
zfs_multihost_interval 1000
zfs_multilist_num_sublists 0
zfs_no_scrub_io 0
zfs_no_scrub_prefetch 0
zfs_nocacheflush 0
zfs_nopwrite_enabled 1
zfs_object_mutex_size 64
zfs_pd_bytes_max 52428800
zfs_per_txg_dirty_frees_percent 30
zfs_prefetch_disable 0
zfs_read_chunk_size 1048576
zfs_read_history 0
zfs_read_history_hits 0
zfs_recover 0
zfs_resilver_min_time_ms 3000
zfs_scan_checkpoint_intval 7200
zfs_scan_fill_weight 3
zfs_scan_issue_strategy 0
zfs_scan_legacy 0
zfs_scan_mem_lim_fact 20
zfs_scan_mem_lim_soft_fact 20
zfs_scan_strict_mem_lim 0
zfs_scan_vdev_limit 4194304
zfs_scrub_min_time_ms 1000
zfs_send_corrupt_data 0
zfs_sync_pass_deferred_free 2
zfs_sync_pass_dont_compress 5
zfs_sync_pass_rewrite 2
zfs_sync_taskq_batch_pct 75
zfs_txg_history 100
zfs_txg_timeout 5
zfs_vdev_aggregation_limit 1048576
zfs_vdev_async_read_max_active 3
zfs_vdev_async_read_min_active 1
zfs_vdev_async_write_active_max_dirty_percent 60
zfs_vdev_async_write_active_min_dirty_percent 30
zfs_vdev_async_write_max_active 10
zfs_vdev_async_write_min_active 2
zfs_vdev_cache_bshift 16
zfs_vdev_cache_max 16384
zfs_vdev_cache_size 0
zfs_vdev_max_active 1000
zfs_vdev_mirror_non_rotating_inc 0
zfs_vdev_mirror_non_rotating_seek_inc 1
zfs_vdev_mirror_rotating_inc 0
zfs_vdev_mirror_rotating_seek_inc 5
zfs_vdev_mirror_rotating_seek_offset 1048576
zfs_vdev_queue_depth_pct 1000
zfs_vdev_raidz_impl [schnellster] Originalskalar sse2 ssse3
zfs_vdev_read_gap_limit 32768
zfs_vdev_scheduler noop
zfs_vdev_scrub_max_active 2
zfs_vdev_scrub_min_active 1
zfs_vdev_sync_read_max_active 10
zfs_vdev_sync_read_min_active 10
zfs_vdev_sync_write_max_active 10
zfs_vdev_sync_write_min_active 10
zfs_vdev_write_gap_limit 4096
zfs_zevent_cols 80
zfs_zevent_console 0
zfs_zevent_len_max 128
zfs_zil_clean_taskq_maxalloc 1048576
zfs_zil_clean_taskq_minalloc 1024
zfs_zil_clean_taskq_nthr_pct 100
zil_replay_disable 0
zil_slog_bulk 786432
zio_delay_max 30000
zio_dva_throttle_enabled 1
zio_requeue_io_start_cut_in_line 1
zio_taskq_batch_pct 75
zvol_inhibit_dev 0
zvol_major 230
zvol_max_discard_blocks 16384
zvol_prefetch_bytes 131072
zvol_request_sync 0
zvol_threads 32
zvol_volmode 1

`

Ich habe alle Datensätze mit aktiviertem Dedup zerstört. zpool status -D gibt keine DDT-Einträge zurück.

Die Leistung scheint normal zu sein, obwohl der z_null_int-Prozess einen Großteil der E/A-%-Zeit verbraucht.

@behlendorf benötigen Sie weitere Informationen zu diesem Thema? Ich habe das gleiche Problem auf meinen Computern, daher kann ich etwas posten, das helfen kann, es zu beheben.

Ich habe PR #6989 mit einem vorgeschlagenen Fix geöffnet. Der Patch befasst sich mit der gemeldeten ARC-Trefferratenregression, die die hier gemeldeten zusätzlichen IO erklären könnte. Jedes zusätzliche Testen des Patches wäre willkommen, sobald es alle automatisierten Tests bestanden hat.

Ich werde dies auf jeden Fall testen, wenn der Patch herauskommt, obwohl ich vermute, dass andere mich schlagen werden, da ich ZFS immer nur über den AUR unter Arch Linux installiert habe und es immer eine Verzögerung zwischen einer neuen ZFS-Version und dem Erreichen des AUR gibt

Ich sehe immer noch hohe Festplatten-E/A, wenn dieser Patch angewendet wird; http://apolloner.eu/~apollo13/out.perf zeigt die Ereignisse von a

perf record -ag -e probe:zio_null -F 99 -- sleep 60 

Lauf

Ich habe gestern auf 0.7.6 aktualisiert.
iotop zeigt immer noch 99,99 % IO auf z_null_int .

zfs-0.7.6-1.fc27.x86_64
spl-0.7.6-1.fc27.x86_64
Kernel 4.14.11-300.fc27.x86_64

@apollo13 Laut den von Ihnen geposteten Protokollen perf Protokolle von einem inaktiven System mit 0.7.6 sammeln, das das Problem aufweist.

perf record -ag -e probe:zio_null -F 99 -- sleep 60 

Ich öffne dieses Thema noch einmal, damit wir dem auf den Grund gehen können.

@behlendorf http://apolloner.eu/~apollo13/out2.perf ist das Leerlaufprotokoll. Die Zeit, die zio_null_int mit 99% I/O verbringt, wird stark reduziert (nur alle 2-5 Sekunden). Das System fühlt sich jedoch nicht langsam an, selbst wenn VMs ausgeführt werden, bei denen zio_null_int konstant bei 99% liegt. Es bleibt im Grunde bei 99%, sobald ich eine VM starte, was immer noch dazu führt, dass ich mich frage / denke, ob es sich um ein ZFS-Problem im Gegensatz zu einem echten E / A-Problem handeln könnte.

@apollo13 danke für die schnelle Antwort. Gehe ich richtig in der Annahme, dass ZFS als Root-Pool auf diesem System verwendet wird? Wie ich in den Protokollen sehen kann, führen die folgenden Prozesse alle aktiv IO aus.

  • perf_4.13 - Vermutlich das out2.perf Protokoll schreiben
  • zpool iostat - Lesen von /etc/hostid . Dies scheint ein untergeordneter Faktor zu sein.
  • zfs - wird gelegentlich ausgeführt und verursacht Lesevorgänge.
  • cfs_loop , pveproxy worker , sshd , ls , pvesr und pickup - sind im Dateisystem ziemlich aktiv.
  • txg_sync - Normales Verhalten alle paar Sekunden.

Stimmt dies mit den Top-Prozessen überein, die von iotop gemeldet wurden? Von dem, was ich sehen kann, befindet sich z_null_int hauptsächlich in IO-Wartezeit, während diese Blöcke nach Bedarf vom ARC oder der Festplatte gelesen werden. Was ein ziemlich normales Verhalten ist, und die verbesserte Trefferquote würde erklären, warum jetzt weniger Zeit dort verbracht wird.

Eine Möglichkeit, ein viel besseres Gefühl dafür zu bekommen, was genau von der Festplatte gelesen wird, besteht darin, den Leseverlauf zu aktivieren. Dies führt ein fortlaufendes Protokoll der letzten N Blöcke, die von der Festplatte gelesen werden mussten. Es wird nichts enthalten, was aus dem ARC-Cache bedient wurde.

echo 1000 >/sys/module/zfs/parameters/zfs_read_history
cat /proc/spl/kstat/zfs/<pool>/reads

@behlendorf Danke für die ausführliche Antwort, ich antworte so gut ich kann.

  • Ich verwende zfs 0.7.4 mit diesem Patch auf proxmox (Wenn dies ein Problem sein könnte)
  • Ja, das gesamte System läuft auf einem ZFS-RAID1-Pool (3 Festplatten, kein Ersatz) mit einer SSD als Cache
  • Für den folgenden Test habe ich perf.data auf einem ext4 fs auf einer separaten Festplatte abgelegt, um es aus den Ergebnissen zu eliminieren
  • Zu den aktiven Prozessen laut iotop: cfs_loo p und kvm (wenn VMs laufen) scheinen die Hauptschuldigen zu sein

Die folgenden Tests wurden jedoch ohne weitere Maßnahmen durchgeführt; also sollten ls usw. überhaupt nicht auftauchen!

Für den Idle-Fall: http://apolloner.eu/~apollo13/proxmox_zfs/idle/ -- Wie es aussieht, z_null_int alle 5 Sekunden auf 99,99%

Für den Lastfall (mit laufenden VMs): http://apolloner.eu/~apollo13/proxmox_zfs/load/ -- grundsätzlich konstant bei 99% I/O mit (tatsächlichen) Plattenschreibvorgängen zwischen 0 und 15 MB/s -- der Plattenschreibvorgang aus den KVM-Prozessen zusammen scheint weniger als 1 MB/s zu betragen (wahrscheinlich sogar weniger als 100 KB/s). Alles in allem fühlt sich das System noch stabil an.

Ich habe seit 2 Monaten genau das gleiche (oder ein sehr ähnliches) Problem wie @apollo13 . Auch die Verwendung von Proxmox mit gepatchten zfs 0.7.4 (heute habe ich Proxmox-Leute gebeten, auf die vollständige Version 0.7.6 zu aktualisieren).
Das Problem tritt jedes Mal auf, wenn ich versuche, ein Backup (auf einem anderen Server oder auf einem dedizierten Testlaufwerk) oder eine Kopie größerer (40 GB +) Dateien durchzuführen.
Das Problem tritt nicht auf, wenn eine hohe E/A innerhalb der VM vorhanden ist, sondern nur auf dem Host.
Ich habe zwei Pools (einen für System und einen für Daten - beide gespiegelte SSD).
Jedes Mal, wenn ich Dateien aus dem Datenpool verschiebe, werden extrem hohe IO im Systempool angezeigt und das System friert manchmal ohne Chance auf Wiederherstellung vollständig ein - und ich sehe immer riesige Lasten in der Nähe von 170. Nach dem Test habe ich festgestellt, dass das Problem nicht funktioniert auftreten, wenn ich Backups mache, um sich selbst zu bündeln - so habe ich festgestellt, dass es kein HW-Problem ist.

Bitte beachten Sie nur, dass dieses Problem dazu führt, dass dieser Server im Grunde nicht in der Lage ist, die meisten Backups durchzuführen.

Mein HW:
CPU ist: Intel Xeon E5-2620 v4
Arbeitsspeicher: 64 GB
DATENPLATTE: 2x 1TB SSD im RAID 10 auf ZFS
BOOT-DISK: 2x 32GB SATA in RAID 10

Wenn ich morgen Zeit habe, reproduziere ich das Problem und erfasse alle erforderlichen Daten.

Im Moment sind hier nur Parameter der Pools und einige Tests, die ich zuvor durchgeführt habe:

Meine Tunables (ich habe versucht, ARC zu senken, um zu sehen, ob es einen Effekt hat, aber was ich sehen kann, wirkt sich überhaupt nicht auf Verlangsamungen aus):

options zfs zfs_arc_max=5120000000
options zfs zfs_arc_min=1024000000
options zfs zfs_prefetch_disable=1
options zfs zfs_txg_timeout=5

DATENpool:

zfs get all DP1
NAME  PROPERTY              VALUE                  SOURCE
DP1   type                  filesystem             -
DP1   creation              Fri Dec 16 20:21 2016  -
DP1   used                  437G                   -
DP1   available             423G                   -
DP1   referenced            194G                   -
DP1   compressratio         1.12x                  -
DP1   mounted               yes                    -
DP1   quota                 none                   default
DP1   reservation           none                   default
DP1   recordsize            128K                   default
DP1   mountpoint            /DP1                   default
DP1   sharenfs              off                    default
DP1   checksum              on                     default
DP1   compression           lz4                    local
DP1   atime                 off                    local
DP1   devices               on                     default
DP1   exec                  on                     default
DP1   setuid                on                     default
DP1   readonly              off                    default
DP1   zoned                 off                    default
DP1   snapdir               hidden                 default
DP1   aclinherit            restricted             default
DP1   createtxg             1                      -
DP1   canmount              on                     default
DP1   xattr                 sa                     local
DP1   copies                1                      default
DP1   version               5                      -
DP1   utf8only              off                    -
DP1   normalization         none                   -
DP1   casesensitivity       sensitive              -
DP1   vscan                 off                    default
DP1   nbmand                off                    default
DP1   sharesmb              off                    default
DP1   refquota              none                   default
DP1   refreservation        none                   default
DP1   guid                  6791509815837183392    -
DP1   primarycache          all                    default
DP1   secondarycache        all                    default
DP1   usedbysnapshots       0B                     -
DP1   usedbydataset         194G                   -
DP1   usedbychildren        243G                   -
DP1   usedbyrefreservation  0B                     -
DP1   logbias               latency                default
DP1   dedup                 off                    default
DP1   mlslabel              none                   default
DP1   sync                  standard               default
DP1   dnodesize             legacy                 default
DP1   refcompressratio      1.00x                  -
DP1   written               194G                   -
DP1   logicalused           487G                   -
DP1   logicalreferenced     193G                   -
DP1   volmode               default                default
DP1   filesystem_limit      none                   default
DP1   snapshot_limit        none                   default
DP1   filesystem_count      none                   default
DP1   snapshot_count        none                   default
DP1   snapdev               hidden                 default
DP1   acltype               off                    default
DP1   context               none                   default
DP1   fscontext             none                   default
DP1   defcontext            none                   default
DP1   rootcontext           none                   default
DP1   relatime              off                    default
DP1   redundant_metadata    all                    default
DP1   overlay               off                    default

Systempool:

zfs get all rpool
NAME   PROPERTY              VALUE                  SOURCE
rpool  type                  filesystem             -
rpool  creation              Sun Dec  4 17:00 2016  -
rpool  used                  9.20G                  -
rpool  available             19.6G                  -
rpool  referenced            96K                    -
rpool  compressratio         1.45x                  -
rpool  mounted               yes                    -
rpool  quota                 none                   default
rpool  reservation           none                   default
rpool  recordsize            128K                   default
rpool  mountpoint            /rpool                 default
rpool  sharenfs              off                    default
rpool  checksum              on                     default
rpool  compression           lz4                    local
rpool  atime                 off                    local
rpool  devices               on                     default
rpool  exec                  on                     default
rpool  setuid                on                     default
rpool  readonly              off                    default
rpool  zoned                 off                    default
rpool  snapdir               hidden                 default
rpool  aclinherit            restricted             default
rpool  createtxg             1                      -
rpool  canmount              on                     default
rpool  xattr                 sa                     local
rpool  copies                1                      default
rpool  version               5                      -
rpool  utf8only              off                    -
rpool  normalization         none                   -
rpool  casesensitivity       sensitive              -
rpool  vscan                 off                    default
rpool  nbmand                off                    default
rpool  sharesmb              off                    default
rpool  refquota              none                   default
rpool  refreservation        none                   default
rpool  guid                  2481723427000224415    -
rpool  primarycache          all                    default
rpool  secondarycache        all                    default
rpool  usedbysnapshots       0B                     -
rpool  usedbydataset         96K                    -
rpool  usedbychildren        9.20G                  -
rpool  usedbyrefreservation  0B                     -
rpool  logbias               latency                default
rpool  dedup                 off                    default
rpool  mlslabel              none                   default
rpool  sync                  standard               local
rpool  dnodesize             legacy                 default
rpool  refcompressratio      1.00x                  -
rpool  written               96K                    -
rpool  logicalused           10.5G                  -
rpool  logicalreferenced     40K                    -
rpool  volmode               default                default
rpool  filesystem_limit      none                   default
rpool  snapshot_limit        none                   default
rpool  filesystem_count      none                   default
rpool  snapshot_count        none                   default
rpool  snapdev               hidden                 default
rpool  acltype               off                    default
rpool  context               none                   default
rpool  fscontext             none                   default
rpool  defcontext            none                   default
rpool  rootcontext           none                   default
rpool  relatime              off                    default
rpool  redundant_metadata    all                    default
rpool  overlay               off                    default

sdd & sde sind die Hauptdaten-SSD (von der die Daten kopiert werden)
sdf & sdg sind System-SSD
sda & sdb sind Test-HDD (wo rsync Daten kopieren soll)

Befehl: rsync -r --progress /DP1/backups/ /DT3btrfs/backups/ - Ich habe es nur getestet, weil ich keine anderen Ideen mit einem anderen Dateisystem als Ziel hatte, in diesem Fall btrfs, aber es spielt keine Rolle, was das Ziellaufwerk ist.

Wie Sie sehen, werden System-SSDs (einschließlich Swap) während der Datenübertragung auf andere Laufwerke mit Daten (Auslastung 100%) gehämmert, was ich nicht verstehe ...

iostat -x -d 2
Linux 4.13.13-2-pve (klaas)     01/03/2018      _x86_64_        (16 CPU)

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
loop0             0.00     0.00    0.04    2.00     0.17   869.78   850.88     0.01    4.13    5.71    4.10   1.46   0.30
sda               0.00     0.00    0.00    0.00     0.00     0.00    40.94     0.00    2.98    2.98    0.00   1.96   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00    40.94     0.00    3.58    3.58    0.00   2.96   0.00
sdc               0.00     2.00    0.02    0.71     0.26   108.82   297.28     0.02   22.87    7.26   23.33   9.11   0.67
sdd               0.00     0.01   12.79   39.53   794.05   645.26    55.02     0.02    0.29    0.71    0.15   0.19   0.99
sde               0.00     0.00   12.80   39.00   794.16   645.26    55.58     0.02    0.30    0.72    0.17   0.20   1.04
sdf               0.00     0.00    0.88   10.16    10.27   139.85    27.22     0.13   11.66    4.42   12.28   5.96   6.57
sdg               0.00     0.00    0.89   10.39    10.32   139.85    26.63     0.14   12.53    4.38   13.24   6.41   7.23
zd0               0.00     0.00    0.04    0.24     0.16     0.94     8.00     0.02   87.75    5.03  101.71  35.04   0.97
zd16              0.00     0.00    0.33    0.46     2.82     8.71    28.95     0.00    1.17    0.28    1.80   0.11   0.01
zd32              0.00     0.00    0.03    5.96     0.77    88.80    29.88     0.00    0.19    0.31    0.18   0.02   0.01

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
loop0             0.00     0.00    0.00    0.50     0.00     2.00     8.00     0.00    0.00    0.00    0.00   0.00   0.00
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.50    0.00    1.00     0.00     6.00    12.00     0.01    6.00    0.00    6.00   6.00   0.60
sdd               0.00     0.00   17.50   16.50    24.00   162.00    10.94     0.01    0.35    0.69    0.00   0.35   1.20
sde               0.00     0.00   16.50   16.50    18.00   162.00    10.91     0.01    0.30    0.61    0.00   0.30   1.00
sdf               0.00     0.50    0.50    2.50     0.00    22.00    14.67     2.70  754.67  792.00  747.20 333.33 100.00
sdg               0.00     0.00    2.50    3.00     8.00    30.00    13.82     0.39   73.45  128.00   28.00  35.64  19.60
zd0               0.00     0.00    0.00    1.50     0.00     6.00     8.00     3.99  728.00    0.00  728.00 666.67 100.00
zd16              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
zd32              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
loop0             0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdd               0.00     0.00   20.50    6.00  1566.00   104.00   126.04     0.01    0.30    0.39    0.00   0.23   0.60
sde               0.00     0.00   20.00    6.00  1690.00   104.00   138.00     0.01    0.46    0.40    0.67   0.38   1.00
sdf               0.00     0.50   13.50   44.50    10.00   646.00    22.62     2.93   68.03   78.67   64.81  16.97  98.40
sdg               0.50     0.50   19.00   44.00    40.00   630.00    21.27     2.85   44.41   34.74   48.59  15.24  96.00
zd0               0.00     0.00    0.00   11.00     0.00    44.00     8.00     2.59  375.45    0.00  375.45  91.09 100.20
zd16              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
zd32              0.00     0.00    0.00    4.00     0.00    32.00    16.00     0.00    0.00    0.00    0.00   0.00   0.00

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
loop0             0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdd               0.00     0.00   61.00  117.00  7028.00  3236.00   115.33     0.04    0.25    0.49    0.12   0.19   3.40
sde               0.00     0.00   40.00   84.00  4680.00  3236.00   127.68     0.07    0.55    1.20    0.24   0.40   5.00
sdf               0.00     0.50    7.00    9.50    78.00   852.00   112.73     3.64  222.18  147.71  277.05  60.61 100.00
sdg               0.00     0.00    7.00   15.50    32.00  1556.00   141.16     2.89  121.60   59.71  149.55  44.44 100.00
zd0               0.00     0.00    0.00   21.00     0.00    84.00     8.00    19.72 2074.95    0.00 2074.95  47.62 100.00
zd16              0.00     0.00    0.00    1.00     0.00     4.00     8.00     0.00    0.00    0.00    0.00   0.00   0.00
zd32              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
loop0             0.00     0.00    0.00    1.00     0.00     4.00     8.00     0.00    0.00    0.00    0.00   0.00   0.00
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.50    0.00    1.50     0.00     8.00    10.67     0.02   13.33    0.00   13.33  13.33   2.00
sdd               0.00     0.00   10.50    4.00   832.00    50.00   121.66     0.01    0.41    0.57    0.00   0.28   0.40
sde               0.00     0.00    8.50    4.00   576.00    50.00   100.16     0.02    1.28    0.94    2.00   1.12   1.40
sdf               0.00     2.00    5.50   11.50    12.00  1534.00   181.88     2.76  160.59  110.18  184.70  58.82 100.00
sdg               0.00     1.50    6.00   13.00    48.00  1622.00   175.79     2.86  156.42  107.67  178.92  52.63 100.00
zd0               0.00     0.00    4.00   34.50    16.00   138.00     8.00    22.63  692.10  120.00  758.43  25.97 100.00
zd16              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
zd32              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
loop0             0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdd               0.00     0.00    5.50   17.00     4.00   378.00    33.96     0.00    0.09    0.36    0.00   0.09   0.20
sde               0.00     0.00    7.50    6.50    42.00    98.00    20.00     0.01    0.71    0.53    0.92   0.57   0.80
sdf               0.00     1.00    7.50   11.00    28.00  1384.00   152.65     3.16  152.65  105.60  184.73  54.05 100.00
sdg               0.00     0.50    4.00    8.00    16.00   976.00   165.33     3.36  208.00  192.50  215.75  83.33 100.00
zd0               0.00     0.00    7.00   17.50    28.00    70.00     8.00    25.68  592.65  231.71  737.03  40.82 100.00
zd16              0.00     0.00    0.00    3.50     0.00    14.00     8.00     0.00    0.00    0.00    0.00   0.00   0.00
zd32              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

Device:         rrqm/s   wrqm/s     r/s     w/s    rkB/s    wkB/s avgrq-sz avgqu-sz   await r_await w_await  svctm  %util
loop0             0.00     0.00    0.00    0.50     0.00     2.00     8.00     0.00    0.00    0.00    0.00   0.00   0.00
sda               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdb               0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
sdc               0.00     0.50    0.00    1.00     0.00     6.00    12.00     0.01   10.00    0.00   10.00  10.00   1.00
sdd               0.00     0.00    3.00   66.50    14.00  1308.00    38.04     0.01    0.17    1.33    0.12   0.12   0.80
sde               0.00     0.00    2.50   57.00     0.00  1588.00    53.38     0.01    0.24    1.60    0.18   0.17   1.00
sdf               0.00     0.00    1.50    1.00     6.00   128.00   107.20     3.27 1056.80 1004.00 1136.00 400.00 100.00
sdg               0.00     0.00    0.00    0.50     0.00    64.00   256.00     3.62 2176.00    0.00 2176.00 2000.00 100.00
zd0               0.00     0.00    0.00    0.00     0.00     0.00     0.00    25.00    0.00    0.00    0.00   0.00 100.00
zd16              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00
zd32              0.00     0.00    0.00    0.00     0.00     0.00     0.00     0.00    0.00    0.00    0.00   0.00   0.00

Dies ist zum Beispiel ein Protokoll aus einem Backup - Sie können sehen, wie die Geschwindigkeit drastisch abfällt (normalerweise auf KB/s).

INFO: status: 0% (364904448/42949672960), sparse 0% (36098048), duration 3, read/write 121/109 MB/s
INFO: status: 1% (707002368/42949672960), sparse 0% (44933120), duration 6, read/write 114/111 MB/s
INFO: status: 2% (1045299200/42949672960), sparse 0% (50085888), duration 9, read/write 112/111 MB/s
INFO: status: 3% (1436811264/42949672960), sparse 0% (54272000), duration 12, read/write 130/129 MB/s
INFO: status: 4% (1816920064/42949672960), sparse 0% (54272000), duration 15, read/write 126/126 MB/s
INFO: status: 5% (2197028864/42949672960), sparse 0% (84951040), duration 18, read/write 126/116 MB/s
INFO: status: 6% (2580938752/42949672960), sparse 0% (85008384), duration 21, read/write 127/127 MB/s
INFO: status: 7% (3085434880/42949672960), sparse 0% (85286912), duration 25, read/write 126/126 MB/s
INFO: status: 8% (3450929152/42949672960), sparse 0% (89493504), duration 28, read/write 121/120 MB/s
INFO: status: 9% (3965386752/42949672960), sparse 0% (93696000), duration 32, read/write 128/127 MB/s
INFO: status: 10% (4295229440/42949672960), sparse 0% (95772672), duration 35, read/write 109/109 MB/s
INFO: status: 11% (4774166528/42949672960), sparse 0% (116699136), duration 39, read/write 119/114 MB/s
INFO: status: 12% (5241700352/42949672960), sparse 0% (116822016), duration 43, read/write 116/116 MB/s
INFO: status: 13% (5648416768/42949672960), sparse 0% (116858880), duration 46, read/write 135/135 MB/s
INFO: status: 14% (6013321216/42949672960), sparse 0% (116965376), duration 49, read/write 121/121 MB/s
INFO: status: 15% (6553075712/42949672960), sparse 0% (143826944), duration 53, read/write 134/128 MB/s
INFO: status: 16% (6898057216/42949672960), sparse 0% (148045824), duration 62, read/write 38/37 MB/s
INFO: status: 17% (7355105280/42949672960), sparse 0% (148209664), duration 217, read/write 2/2 MB/s

Normalerweise erhalte ich während der Überweisung auch:

[ 363.485362] INFO: task txg_sync:785 blocked for more than 120 seconds.
[ 363.485388] Tainted: P O 4.13.13-5-pve #1
[ 363.485406] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
[ 363.485431] txg_sync D 0 785 2 0x00000000
[ 363.485433] Call Trace:
[ 363.485441] __schedule+0x3cc/0x850
[ 363.485443] schedule+0x36/0x80
[ 363.485446] io_schedule+0x16/0x40
[ 363.485453] cv_wait_common+0xb2/0x140 [spl]
[ 363.485456] ? wait_woken+0x80/0x80
[ 363.485460] __cv_wait_io+0x18/0x20 [spl]
[ 363.485503] zio_wait+0xfd/0x1b0 [zfs]
[ 363.485548] dsl_pool_sync+0xb8/0x440 [zfs]
[ 363.485635] spa_sync+0x42d/0xdb0 [zfs]
[ 363.485694] txg_sync_thread+0x2d4/0x4a0 [zfs]
[ 363.485719] ? txg_quiesce_thread+0x3f0/0x3f0 [zfs]
[ 363.485722] thread_generic_wrapper+0x72/0x80 [spl]
[ 363.485724] kthread+0x109/0x140
[ 363.485727] ? __thread_exit+0x20/0x20 [spl]
[ 363.485728] ? kthread_create_on_node+0x70/0x70
[ 363.485728] ? kthread_create_on_node+0x70/0x70
[ 363.485730] ret_from_fork+0x1f/0x30
[ 387.639108] kauditd_printk_skb: 1 callbacks suppressed
[ 387.639109] audit: type=1400 audit(1517141349.643:29): apparmor="DENIED" operation="mount" info="failed flags match" error=-13 profile="lxc-container-default-cgns" name="/" pid=10490 comm="(ionclean)" flags="rw, rslave"
[ 484.317903] INFO: task txg_sync:785 blocked for more than 120 seconds.
[ 484.317931] Tainted: P O 4.13.13-5-pve #1
[ 484.317955] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
[ 484.317997] txg_sync D 0 785 2 0x00000000
[ 484.318000] Call Trace:
[ 484.318007] __schedule+0x3cc/0x850
[ 484.318009] schedule+0x36/0x80
[ 484.318012] io_schedule+0x16/0x40
[ 484.318019] cv_wait_common+0xb2/0x140 [spl]
[ 484.318022] ? wait_woken+0x80/0x80
[ 484.318026] __cv_wait_io+0x18/0x20 [spl]
[ 484.318069] zio_wait+0xfd/0x1b0 [zfs]
[ 484.318094] dsl_pool_sync+0xb8/0x440 [zfs]
[ 484.318153] spa_sync+0x42d/0xdb0 [zfs]
[ 484.318197] txg_sync_thread+0x2d4/0x4a0 [zfs]
[ 484.318222] ? txg_quiesce_thread+0x3f0/0x3f0 [zfs]
[ 484.318225] thread_generic_wrapper+0x72/0x80 [spl]
[ 484.318227] kthread+0x109/0x140
[ 484.318229] ? __thread_exit+0x20/0x20 [spl]
[ 484.318230] ? kthread_create_on_node+0x70/0x70
[ 484.318231] ? kthread_create_on_node+0x70/0x70
[ 484.318233] ret_from_fork+0x1f/0x30
[ 605.154228] INFO: task txg_sync:785 blocked for more than 120 seconds.
[ 605.154258] Tainted: P O 4.13.13-5-pve #1
[ 605.154277] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
(6x more the same)

EDIT Natürlich habe ich auch in iotop:

 7892 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]
  509 be/0 root        0.00 B/s    0.00 B/s  0.00 % 99.99 % [z_null_int]

Wir hatten auch ein Problem mit hoher IO-Last (z_null_int). Das Root des Systems befand sich im selben ZFS-Pool wie der Datenspeicher für VMs. Wir haben dieses Problem behoben, indem wir das System auf verschiedenen Festplatten neu installiert haben (kein ZFS mehr für das Root des Systems verwenden).

Als wir den Pool in ein neu installiertes System importierten (mit der gleichen Version von ZFS), war das Problem verschwunden und trat nicht mehr auf - es ist jetzt über 2 Monate her.

Hoffe diese Info hilft irgendwie.

Irgendwie wollte ich ZFS im Root verwenden, um nach Updates/Upgrades schnelle Rollbacks zu machen.

@cooljimy84 Es funktionierte über ein Jahr, bevor das erste Problem bei mir auftrat, also wurde es vor ungefähr 3-5 Monaten aktualisiert.

@vlcek hast du deine proxmox-Konfiguration problemlos übertragen? Ich kenne Script von Dan Ziemecki, aber ich habe nie getestet, ob es alles überträgt.

@jkalousek wir verwenden kein proxmox (nur Debian und Xen als Hypervisor), daher kann ich Ihnen dabei nicht helfen.

@behlendorf Nun, ich habe versucht, perf (von git) zu installieren, aber während des Klonens reagierte das Hostsystem nicht mehr (wahrscheinlich wegen dieses Problems) und nach 15 Minuten Wartezeit (VM lief einwandfrei) habe ich den gesamten Server hart neu gestartet, also werde ich es nicht sein wahrscheinlich in der Lage, Perf-Log bereitzustellen...

@behlendorf Dies ist zfs_read für mich im Leerlauf (alle VMs laufen - CPU-Auslastung ~4%, Gesamtsystemlast ~1)

23 0 0x01 500 56000 4896113145 418199471302
UID      start            objset   object   level    blkid    aflags   origin                   pid      process
321      362336832071     0x37     33090    0        0        0x12                              27903    lxc-info
322      362336878504     0x37     237046   0        0        0x12                              27903    lxc-info
323      362336887754     0x37     33090    0        0        0x12                              27903    lxc-info
324      362344523315     0x37     33090    0        0        0x12                              27905    lxc-info
325      362344553681     0x37     237046   0        0        0x12                              27905    lxc-info
326      362344579011     0x37     33090    0        0        0x12                              27905    lxc-info
327      362365912938     0x37     5760     0        0        0x12                              27910    zpool
328      362370411944     0x37     5760     0        0        0x12                              27911    zfs
329      362393990946     0x37     5760     0        0        0x12                              27920    zpool
330      362398748410     0x37     5760     0        0        0x12                              27921    zfs
331      362420954872     0x37     33090    0        0        0x12                              27927    lxc-info
332      362420987507     0x37     237046   0        0        0x12                              27927    lxc-info
333      362420996011     0x37     33090    0        0        0x12                              27927    lxc-info
334      362428193837     0x37     33090    0        0        0x12                              27929    lxc-info
335      362428223267     0x37     237046   0        0        0x12                              27929    lxc-info
336      362428232016     0x37     33090    0        0        0x12                              27929    lxc-info
337      362436028730     0x37     33090    0        0        0x12                              27931    lxc-info
338      362436064990     0x37     237046   0        0        0x12                              27931    lxc-info
339      362436076290     0x37     33090    0        0        0x12                              27931    lxc-info
340      362443422212     0x37     33090    0        0        0x12                              27933    lxc-info
341      362443463510     0x37     237046   0        0        0x12                              27933    lxc-info
342      362443474172     0x37     33090    0        0        0x12                              27933    lxc-info
343      362450862768     0x37     33090    0        0        0x12                              27935    lxc-info
344      362450906817     0x37     237046   0        0        0x12                              27935    lxc-info
345      362450915483     0x37     33090    0        0        0x12                              27935    lxc-info
346      362458441401     0x37     33090    0        0        0x12                              27937    lxc-info
347      362458468888     0x37     237046   0        0        0x12                              27937    lxc-info
348      362458477171     0x37     33090    0        0        0x12                              27937    lxc-info
349      363454018910     0x37     182855   0        0        0x12                              28236    pvesh
350      363909431688     0x37     33090    0        0        0x12                              28283    lxc-info
351      363909463555     0x37     237046   0        0        0x12                              28283    lxc-info
352      363909473668     0x37     33090    0        0        0x12                              28283    lxc-info
354      364534546084     0x37     33090    0        0        0x12                              28299    lxc-info
355      364534578974     0x37     237046   0        0        0x12                              28299    lxc-info
356      364534589350     0x37     33090    0        0        0x12                              28299    lxc-info
357      366849433154     0x37     9954     0        0        0x12                              20154    bash
358      366849894922     0x37     0        0        6060     0x12                              20154    bash
359      366908790963     0x37     193922   0        0        0x12                              28327    bash
360      367111076440     0x37     5759     0        0        0x12                              28341    curl
361      367111095606     0x37     6019     0        0        0x12                              28341    curl
362      367111242111     0x37     6019     0        0        0x12                              28341    curl
363      368491945915     0x37     182855   0        0        0x12                              28676    pvesh
364      368929074347     0x37     33090    0        0        0x12                              28729    lxc-info
365      368929125414     0x37     237046   0        0        0x12                              28729    lxc-info
366      368929137208     0x37     33090    0        0        0x12                              28729    lxc-info
367      372445153521     0x37     182855   0        0        0x12                              28783    pvesh
368      372499518460     0x37     33090    0        0        0x12                              28786    lxc-info
369      372499585259     0x37     237046   0        0        0x12                              28786    lxc-info
370      372499594237     0x37     33090    0        0        0x12                              28786    lxc-info
371      372507740835     0x37     33090    0        0        0x12                              28788    lxc-info
372      372507774559     0x37     237046   0        0        0x12                              28788    lxc-info
373      372507783729     0x37     33090    0        0        0x12                              28788    lxc-info
374      372515457680     0x37     33090    0        0        0x12                              28790    lxc-info
375      372515488026     0x37     237046   0        0        0x12                              28790    lxc-info
376      372515496816     0x37     33090    0        0        0x12                              28790    lxc-info
377      372522530185     0x37     33090    0        0        0x12                              28792    lxc-info
378      372522558590     0x37     237046   0        0        0x12                              28792    lxc-info
379      372522567165     0x37     33090    0        0        0x12                              28792    lxc-info
380      372530310337     0x37     33090    0        0        0x12                              28794    lxc-info
381      372530340944     0x37     237046   0        0        0x12                              28794    lxc-info
382      372530350460     0x37     33090    0        0        0x12                              28794    lxc-info
383      372538138211     0x37     33090    0        0        0x12                              28796    lxc-info
384      372538186134     0x37     237046   0        0        0x12                              28796    lxc-info
385      372538194673     0x37     33090    0        0        0x12                              28796    lxc-info
386      372560022356     0x37     5760     0        0        0x12                              28803    zpool
388      372579569784     0x37     5760     0        0        0x12                              28808    zpool
389      372583889373     0x37     5760     0        0        0x12                              28809    zfs
390      372614085411     0x37     33090    0        0        0x12                              28820    lxc-info
391      372614117611     0x37     237046   0        0        0x12                              28820    lxc-info
392      372614126314     0x37     33090    0        0        0x12                              28820    lxc-info
393      372621667535     0x37     33090    0        0        0x12                              28822    lxc-info
394      372621699255     0x37     237046   0        0        0x12                              28822    lxc-info
395      372621709058     0x37     33090    0        0        0x12                              28822    lxc-info
396      372628924568     0x37     33090    0        0        0x12                              28824    lxc-info
397      372628952777     0x37     237046   0        0        0x12                              28824    lxc-info
398      372628961092     0x37     33090    0        0        0x12                              28824    lxc-info
399      372636436553     0x37     33090    0        0        0x12                              28826    lxc-info
400      372636467423     0x37     237046   0        0        0x12                              28826    lxc-info
401      372636478140     0x37     33090    0        0        0x12                              28826    lxc-info
402      372644363955     0x37     33090    0        0        0x12                              28828    lxc-info
403      372644415366     0x37     237046   0        0        0x12                              28828    lxc-info
404      372644424370     0x37     33090    0        0        0x12                              28828    lxc-info
405      372651960567     0x37     33090    0        0        0x12                              28830    lxc-info
406      372651990497     0x37     237046   0        0        0x12                              28830    lxc-info
407      372651999868     0x37     33090    0        0        0x12                              28830    lxc-info
408      372790055832     0x37     5883     0        0        0x12                              28837    modprobe
409      372790070342     0x37     5883     0        0        0x12                              28837    modprobe
410      372790720147     0x37     197011   0        0        0x12                              28837    modprobe
411      372791213698     0x37     5883     0        0        0x12                              28838    modprobe
412      372791227038     0x37     5883     0        0        0x12                              28838    modprobe
413      372791811790     0x37     197011   0        0        0x12                              28838    modprobe
414      372792351907     0x37     5883     0        0        0x12                              28839    modprobe
415      372792364914     0x37     5883     0        0        0x12                              28839    modprobe
416      372792931222     0x37     197011   0        0        0x12                              28839    modprobe
417      372793438935     0x37     5883     0        0        0x12                              28840    modprobe
418      372793452630     0x37     5883     0        0        0x12                              28840    modprobe
419      372794024196     0x37     197011   0        0        0x12                              28840    modprobe
420      372794534237     0x37     5883     0        0        0x12                              28841    modprobe
422      372795240218     0x37     197011   0        0        0x12                              28841    modprobe
423      372901449187     0x37     33090    0        0        0x12                              28844    lxc-info
424      372901482174     0x37     237046   0        0        0x12                              28844    lxc-info
425      372901492740     0x37     33090    0        0        0x12                              28844    lxc-info
426      373788275199     0x37     5883     0        0        0x12                              29285    modprobe
427      373788292002     0x37     5883     0        0        0x12                              29285    modprobe
428      373789059196     0x37     197011   0        0        0x12                              29285    modprobe
429      373789670232     0x37     5883     0        0        0x12                              29286    modprobe
430      373789682429     0x37     5883     0        0        0x12                              29286    modprobe
431      373790303778     0x37     197011   0        0        0x12                              29286    modprobe
432      373790843311     0x37     5883     0        0        0x12                              29288    modprobe
433      373790855193     0x37     5883     0        0        0x12                              29288    modprobe
434      373791462469     0x37     197011   0        0        0x12                              29288    modprobe
435      373791965308     0x37     5883     0        0        0x12                              29289    modprobe
436      373791977558     0x37     5883     0        0        0x12                              29289    modprobe
437      373792523031     0x37     197011   0        0        0x12                              29289    modprobe
438      373793007780     0x37     5883     0        0        0x12                              29290    modprobe
439      373793019252     0x37     5883     0        0        0x12                              29290    modprobe
440      373793523140     0x37     197011   0        0        0x12                              29290    modprobe
441      376776933666     0x37     5883     0        0        0x12                              29330    modprobe
442      376776949458     0x37     5883     0        0        0x12                              29330    modprobe
443      376777496061     0x37     197011   0        0        0x12                              29330    modprobe
444      376778138966     0x37     5883     0        0        0x12                              29331    modprobe
445      376778151263     0x37     5883     0        0        0x12                              29331    modprobe
446      376778652781     0x37     197011   0        0        0x12                              29331    modprobe
447      376779195727     0x37     5883     0        0        0x12                              29332    modprobe
448      376779208084     0x37     5883     0        0        0x12                              29332    modprobe
449      376779726323     0x37     197011   0        0        0x12                              29332    modprobe
450      376780347706     0x37     5883     0        0        0x12                              29333    modprobe
451      376780359790     0x37     5883     0        0        0x12                              29333    modprobe
452      376780944766     0x37     197011   0        0        0x12                              29333    modprobe
453      376781553089     0x37     5883     0        0        0x12                              29334    modprobe
454      376781566104     0x37     5883     0        0        0x12                              29334    modprobe
456      376784834054     0x37     5883     0        0        0x12                              29335    modprobe
457      376784862236     0x37     5883     0        0        0x12                              29335    modprobe
458      376785359986     0x37     197011   0        0        0x12                              29335    modprobe
459      376785937950     0x37     5883     0        0        0x12                              29336    modprobe
460      376785950643     0x37     5883     0        0        0x12                              29336    modprobe
461      376786478919     0x37     197011   0        0        0x12                              29336    modprobe
462      376787123313     0x37     5883     0        0        0x12                              29337    modprobe
463      376787135412     0x37     5883     0        0        0x12                              29337    modprobe
464      376787635440     0x37     197011   0        0        0x12                              29337    modprobe
465      376788250693     0x37     5883     0        0        0x12                              29338    modprobe
466      376788263730     0x37     5883     0        0        0x12                              29338    modprobe
467      376788807890     0x37     197011   0        0        0x12                              29338    modprobe
468      376789357625     0x37     5883     0        0        0x12                              29339    modprobe
469      376789369711     0x37     5883     0        0        0x12                              29339    modprobe
470      376789898642     0x37     197011   0        0        0x12                              29339    modprobe
471      376792565885     0x37     5883     0        0        0x12                              29340    modprobe
472      376792578938     0x37     5883     0        0        0x12                              29340    modprobe
473      376793184728     0x37     197011   0        0        0x12                              29340    modprobe
474      376793721845     0x37     5883     0        0        0x12                              29341    modprobe
475      376793733954     0x37     5883     0        0        0x12                              29341    modprobe
476      376794576561     0x37     197011   0        0        0x12                              29341    modprobe
477      376795198536     0x37     5883     0        0        0x12                              29342    modprobe
478      376795212892     0x37     5883     0        0        0x12                              29342    modprobe
479      376795813063     0x37     197011   0        0        0x12                              29342    modprobe
480      376796382845     0x37     5883     0        0        0x12                              29343    modprobe
481      376796395273     0x37     5883     0        0        0x12                              29343    modprobe
482      376796927031     0x37     197011   0        0        0x12                              29343    modprobe
483      376797586208     0x37     5883     0        0        0x12                              29344    modprobe
484      376797598424     0x37     5883     0        0        0x12                              29344    modprobe
485      376798117815     0x37     197011   0        0        0x12                              29344    modprobe
486      377095243443     0x37     200711   0        6        0x12                              7423     cfs_loop
487      378778664191     0x37     282046   0        0        0x12                              29588    (pvesr)
488      378779919145     0x37     282046   0        0        0x12                              29588    pvesr
490      378784436303     0x37     5883     0        0        0x12                              29593    modprobe
491      378785604363     0x37     197011   0        0        0x12                              29593    modprobe
492      378786286390     0x37     5883     0        0        0x12                              29594    modprobe
493      378786300151     0x37     5883     0        0        0x12                              29594    modprobe
494      378787016749     0x37     197011   0        0        0x12                              29594    modprobe
495      378787549344     0x37     5883     0        0        0x12                              29595    modprobe
496      378787561771     0x37     5883     0        0        0x12                              29595    modprobe
497      378788187992     0x37     197011   0        0        0x12                              29595    modprobe
498      378788666023     0x37     5883     0        0        0x12                              29596    modprobe
499      378788678474     0x37     5883     0        0        0x12                              29596    modprobe
500      378789330251     0x37     197011   0        0        0x12                              29596    modprobe
501      378789780076     0x37     5883     0        0        0x12                              29597    modprobe
502      378789793203     0x37     5883     0        0        0x12                              29597    modprobe
503      378790406637     0x37     197011   0        0        0x12                              29597    modprobe
504      378888306535     0x37     182855   0        0        0x12                              29586    pvesh
505      378936547975     0x37     182855   0        0        0x12                              29588    pvesr
506      379234592929     0x37     229676   0        0        0x12                              29588    pvesr
507      379316741405     0x37     182855   0        0        0x12                              29623    pvesh
508      379357601449     0x37     33090    0        0        0x12                              29656    lxc-info
509      379357634855     0x37     237046   0        0        0x12                              29656    lxc-info
510      379357645984     0x37     33090    0        0        0x12                              29656    lxc-info
511      379781607065     0x37     33090    0        0        0x12                              29664    lxc-info
512      379781640012     0x37     237046   0        0        0x12                              29664    lxc-info
513      379781650518     0x37     33090    0        0        0x12                              29664    lxc-info
514      379949499840     0x37     182855   0        0        0x12                              29667    pvesh
515      380411086569     0x37     33090    0        0        0x12                              29727    lxc-info
516      380411120076     0x37     237046   0        0        0x12                              29727    lxc-info
517      380411130753     0x37     33090    0        0        0x12                              29727    lxc-info
518      380773125922     0x37     5883     0        0        0x12                              29759    modprobe
519      380773141820     0x37     5883     0        0        0x12                              29759    modprobe
520      380773760739     0x37     197011   0        0        0x12                              29759    modprobe
521      380774360160     0x37     5883     0        0        0x12                              29760    modprobe
522      380774372763     0x37     5883     0        0        0x12                              29760    modprobe
524      380775526843     0x37     5883     0        0        0x12                              29761    modprobe
525      380775540409     0x37     5883     0        0        0x12                              29761    modprobe
526      380776070026     0x37     197011   0        0        0x12                              29761    modprobe
527      380776565179     0x37     5883     0        0        0x12                              29762    modprobe
528      380776577782     0x37     5883     0        0        0x12                              29762    modprobe
529      380777102377     0x37     197011   0        0        0x12                              29762    modprobe
530      380777566546     0x37     5883     0        0        0x12                              29763    modprobe
531      380777579325     0x37     5883     0        0        0x12                              29763    modprobe
532      380778121558     0x37     197011   0        0        0x12                              29763    modprobe
533      381205272749     0x37     139446   0        0        0x12                              29778    mysqladmin
534      381205284907     0x37     139446   0        0        0x12                              29778    mysqladmin
535      381205304456     0x37     187647   0        0        0x12                              29778    mysqladmin
536      381205320925     0x37     187648   0        0        0x12                              29778    mysqladmin
537      381205336032     0x37     194119   0        0        0x12                              29778    mysqladmin
538      381205359599     0x37     194119   0        0        0x12                              29778    mysqladmin
539      381333392668     0x37     182855   0        0        0x12                              29774    pvesh
540      381620898720     0x37     5759     0        0        0x12                              29791    nc
541      381620917811     0x37     6019     0        0        0x12                              29791    nc
542      381621102743     0x37     6019     0        0        0x12                              29791    nc
543      381943989823     0x37     182855   0        0        0x12                              29797    pvesh
544      382692450943     0x37     33090    0        0        0x12                              29812    lxc-info
545      382692484975     0x37     237046   0        0        0x12                              29812    lxc-info
546      382692494051     0x37     33090    0        0        0x12                              29812    lxc-info
547      382699969330     0x37     33090    0        0        0x12                              29816    lxc-info
548      382699996451     0x37     237046   0        0        0x12                              29816    lxc-info
549      382700004966     0x37     33090    0        0        0x12                              29816    lxc-info
550      382707380365     0x37     33090    0        0        0x12                              29818    lxc-info
551      382707408294     0x37     237046   0        0        0x12                              29818    lxc-info
552      382707416851     0x37     33090    0        0        0x12                              29818    lxc-info
553      382715085902     0x37     33090    0        0        0x12                              29820    lxc-info
554      382715116189     0x37     237046   0        0        0x12                              29820    lxc-info
555      382715125014     0x37     33090    0        0        0x12                              29820    lxc-info
556      382722860781     0x37     33090    0        0        0x12                              29823    lxc-info
558      382722900756     0x37     33090    0        0        0x12                              29823    lxc-info
559      382731696093     0x37     33090    0        0        0x12                              29825    lxc-info
560      382731730452     0x37     237046   0        0        0x12                              29825    lxc-info
561      382731739636     0x37     33090    0        0        0x12                              29825    lxc-info
562      382782156483     0x37     5760     0        0        0x12                              29911    zpool
563      382787532977     0x37     5760     0        0        0x12                              29912    zfs
564      382792210161     0x37     5760     0        0        0x12                              29913    zpool
565      382796900710     0x37     5760     0        0        0x12                              29914    zfs
566      382812879708     0x37     33090    0        0        0x12                              29919    lxc-info
567      382812911286     0x37     237046   0        0        0x12                              29919    lxc-info
568      382812919841     0x37     33090    0        0        0x12                              29919    lxc-info
569      382820159321     0x37     33090    0        0        0x12                              29921    lxc-info
570      382820187122     0x37     237046   0        0        0x12                              29921    lxc-info
571      382820195635     0x37     33090    0        0        0x12                              29921    lxc-info
572      382826695778     0x37     33090    0        0        0x12                              29923    lxc-info
573      382826726290     0x37     237046   0        0        0x12                              29923    lxc-info
574      382826735973     0x37     33090    0        0        0x12                              29923    lxc-info
575      382833616123     0x37     33090    0        0        0x12                              29925    lxc-info
576      382833643636     0x37     237046   0        0        0x12                              29925    lxc-info
577      382833652375     0x37     33090    0        0        0x12                              29925    lxc-info
578      382840578560     0x37     33090    0        0        0x12                              29927    lxc-info
579      382840604567     0x37     237046   0        0        0x12                              29927    lxc-info
580      382840612429     0x37     33090    0        0        0x12                              29927    lxc-info
581      382847571322     0x37     33090    0        0        0x12                              29929    lxc-info
582      382847614008     0x37     237046   0        0        0x12                              29929    lxc-info
583      382847622459     0x37     33090    0        0        0x12                              29929    lxc-info
584      383702656834     0x0      99       0        2        0x12                              1034     txg_sync
585      383796299184     0x37     5883     0        0        0x12                              30199    modprobe
586      383796314400     0x37     5883     0        0        0x12                              30199    modprobe
587      383796945766     0x37     197011   0        0        0x12                              30199    modprobe
588      383797384307     0x37     5883     0        0        0x12                              30200    modprobe
589      383797396393     0x37     5883     0        0        0x12                              30200    modprobe
590      383797967741     0x37     197011   0        0        0x12                              30200    modprobe
592      383798405395     0x37     5883     0        0        0x12                              30201    modprobe
593      383799037836     0x37     197011   0        0        0x12                              30201    modprobe
594      383799512418     0x37     5883     0        0        0x12                              30202    modprobe
595      383799525474     0x37     5883     0        0        0x12                              30202    modprobe
596      383800118140     0x37     197011   0        0        0x12                              30202    modprobe
597      383800522893     0x37     5883     0        0        0x12                              30203    modprobe
598      383800534509     0x37     5883     0        0        0x12                              30203    modprobe
599      383801108176     0x37     197011   0        0        0x12                              30203    modprobe
600      383956702526     0x0      99       0        2        0x12                              1034     txg_sync
601      390107328945     0x37     182855   0        0        0x12                              30972    pvesh
602      392889479514     0x37     33090    0        0        0x12                              31024    lxc-info
603      392889514022     0x37     237046   0        0        0x12                              31024    lxc-info
604      392889523448     0x37     33090    0        0        0x12                              31024    lxc-info
605      392897272189     0x37     33090    0        0        0x12                              31026    lxc-info
606      392897303381     0x37     237046   0        0        0x12                              31026    lxc-info
607      392897312187     0x37     33090    0        0        0x12                              31026    lxc-info
608      392905313305     0x37     33090    0        0        0x12                              31028    lxc-info
609      392905346870     0x37     237046   0        0        0x12                              31028    lxc-info
610      392905356137     0x37     33090    0        0        0x12                              31028    lxc-info
611      392913396048     0x37     33090    0        0        0x12                              31030    lxc-info
612      392913431620     0x37     237046   0        0        0x12                              31030    lxc-info
613      392913441008     0x37     33090    0        0        0x12                              31030    lxc-info
614      392920629927     0x37     33090    0        0        0x12                              31032    lxc-info
615      392920660962     0x37     237046   0        0        0x12                              31032    lxc-info
616      392920669929     0x37     33090    0        0        0x12                              31032    lxc-info
617      392927636889     0x37     33090    0        0        0x12                              31034    lxc-info
618      392927665458     0x37     237046   0        0        0x12                              31034    lxc-info
619      392927673943     0x37     33090    0        0        0x12                              31034    lxc-info
620      392927694872     0x37     182855   0        0        0x12                              31020    pvesh
621      392953592946     0x37     5760     0        0        0x12                              31041    zpool
622      392958014123     0x37     5760     0        0        0x12                              31048    zfs
623      392991699821     0x37     5760     0        0        0x12                              31065    zpool
624      392996003780     0x37     5760     0        0        0x12                              31066    zfs
626      393002729434     0x37     237046   0        0        0x12                              31067    lxc-info
627      393002738382     0x37     33090    0        0        0x12                              31067    lxc-info
628      393010662339     0x37     33090    0        0        0x12                              31069    lxc-info
629      393010693834     0x37     237046   0        0        0x12                              31069    lxc-info
630      393010702636     0x37     33090    0        0        0x12                              31069    lxc-info
631      393019014156     0x37     33090    0        0        0x12                              31071    lxc-info
632      393019066472     0x37     237046   0        0        0x12                              31071    lxc-info
633      393019076155     0x37     33090    0        0        0x12                              31071    lxc-info
634      393027479304     0x37     33090    0        0        0x12                              31073    lxc-info
635      393027509064     0x37     237046   0        0        0x12                              31073    lxc-info
636      393027517637     0x37     33090    0        0        0x12                              31073    lxc-info
637      393035757895     0x37     33090    0        0        0x12                              31075    lxc-info
638      393035786634     0x37     237046   0        0        0x12                              31075    lxc-info
639      393035794307     0x37     33090    0        0        0x12                              31075    lxc-info
640      393043154654     0x37     33090    0        0        0x12                              31077    lxc-info
641      393043183874     0x37     237046   0        0        0x12                              31077    lxc-info
642      393043192723     0x37     33090    0        0        0x12                              31077    lxc-info
643      393385578954     0x37     33090    0        0        0x12                              31086    lxc-info
644      393385629534     0x37     237046   0        0        0x12                              31086    lxc-info
645      393385640858     0x37     33090    0        0        0x12                              31086    lxc-info
646      393461811029     0x37     182855   0        0        0x12                              31082    pvesh
647      393552308491     0x37     182855   0        0        0x12                              31089    pvesh
648      394016534660     0x37     33090    0        0        0x12                              31301    lxc-info
649      394016570732     0x37     237046   0        0        0x12                              31301    lxc-info
650      394016582094     0x37     33090    0        0        0x12                              31301    lxc-info
651      394020419488     0x37     182855   0        0        0x12                              31290    pvesh
652      394458880926     0x37     33090    0        0        0x12                              31311    lxc-info
653      394458915665     0x37     237046   0        0        0x12                              31311    lxc-info
654      394458926509     0x37     33090    0        0        0x12                              31311    lxc-info
655      394463769075     0x37     203206   0        0        0x12                              31290    pvesh
656      394463795682     0x37     203206   0        0        0x12                              31290    pvesh
657      394620198175     0x37     182855   0        0        0x12                              31314    pvesh
658      395053336734     0x37     33090    0        0        0x12                              31366    lxc-info
660      395053381839     0x37     33090    0        0        0x12                              31366    lxc-info
661      396194503791     0x37     182855   0        0        0x12                              31444    pvesh
662      396638925014     0x37     33090    0        0        0x12                              31458    lxc-info
663      396638958874     0x37     237046   0        0        0x12                              31458    lxc-info
664      396638969428     0x37     33090    0        0        0x12                              31458    lxc-info
665      396809968049     0x37     182855   0        0        0x12                              31461    pvesh
666      397185758215     0x37     5759     0        0        0x12                              31477    curl
667      397185780127     0x37     6019     0        0        0x12                              31477    curl
668      397185929217     0x37     6019     0        0        0x12                              31477    curl
669      397252092377     0x37     33090    0        0        0x12                              31479    lxc-info
670      397252125380     0x37     237046   0        0        0x12                              31479    lxc-info
671      397252136077     0x37     33090    0        0        0x12                              31479    lxc-info
672      397763922935     0x37     5883     0        0        0x12                              31484    modprobe
673      397763939615     0x37     5883     0        0        0x12                              31484    modprobe
674      397764544866     0x37     197011   0        0        0x12                              31484    modprobe
675      397765159979     0x37     5883     0        0        0x12                              31485    modprobe
676      397765172697     0x37     5883     0        0        0x12                              31485    modprobe
677      397765674210     0x37     197011   0        0        0x12                              31485    modprobe
678      397766280019     0x37     5883     0        0        0x12                              31486    modprobe
679      397766292380     0x37     5883     0        0        0x12                              31486    modprobe
680      397766790874     0x37     197011   0        0        0x12                              31486    modprobe
681      397767353642     0x37     5883     0        0        0x12                              31487    modprobe
682      397767366316     0x37     5883     0        0        0x12                              31487    modprobe
683      397767900398     0x37     197011   0        0        0x12                              31487    modprobe
684      397768419832     0x37     5883     0        0        0x12                              31488    modprobe
685      397768432157     0x37     5883     0        0        0x12                              31488    modprobe
686      397769008619     0x37     197011   0        0        0x12                              31488    modprobe
687      398023511967     0x37     182855   0        0        0x12                              31492    pvesh
688      398494912162     0x37     33090    0        0        0x12                              31514    lxc-info
689      398494943302     0x37     237046   0        0        0x12                              31514    lxc-info
690      398494952903     0x37     33090    0        0        0x12                              31514    lxc-info
691      398663276662     0x37     182855   0        0        0x12                              31517    pvesh
692      399109475680     0x37     182855   0        0        0x12                              31540    pvesh
694      399145233218     0x37     237046   0        0        0x12                              31647    lxc-info
695      399145242751     0x37     33090    0        0        0x12                              31647    lxc-info
696      399545725606     0x37     33090    0        0        0x12                              31652    lxc-info
697      399545826071     0x37     237046   0        0        0x12                              31652    lxc-info
698      399545838454     0x37     33090    0        0        0x12                              31652    lxc-info
699      399551224442     0x37     203206   0        0        0x12                              31540    pvesh
700      399551233093     0x37     203206   0        0        0x12                              31540    pvesh
701      399701115862     0x37     182855   0        0        0x12                              31667    pvesh
702      400162088768     0x37     33090    0        0        0x12                              31753    lxc-info
703      400162136009     0x37     237046   0        0        0x12                              31753    lxc-info
704      400162145635     0x37     33090    0        0        0x12                              31753    lxc-info
705      402083374905     0x37     33090    0        0        0x12                              31886    lxc-info
706      402083425933     0x37     237046   0        0        0x12                              31886    lxc-info
707      402083435356     0x37     33090    0        0        0x12                              31886    lxc-info
708      402090948705     0x37     33090    0        0        0x12                              31888    lxc-info
709      402090976854     0x37     237046   0        0        0x12                              31888    lxc-info
710      402090985602     0x37     33090    0        0        0x12                              31888    lxc-info
711      402100302748     0x37     33090    0        0        0x12                              31890    lxc-info
712      402100354253     0x37     237046   0        0        0x12                              31890    lxc-info
713      402100368917     0x37     33090    0        0        0x12                              31890    lxc-info
714      402108548237     0x37     33090    0        0        0x12                              31892    lxc-info
715      402108582375     0x37     237046   0        0        0x12                              31892    lxc-info
716      402108592845     0x37     33090    0        0        0x12                              31892    lxc-info
717      402116129903     0x37     33090    0        0        0x12                              31894    lxc-info
718      402116159277     0x37     237046   0        0        0x12                              31894    lxc-info
719      402116167817     0x37     33090    0        0        0x12                              31894    lxc-info
720      402123224649     0x37     33090    0        0        0x12                              31896    lxc-info
721      402123266844     0x37     237046   0        0        0x12                              31896    lxc-info
722      402123275122     0x37     33090    0        0        0x12                              31896    lxc-info
723      402143046060     0x37     5760     0        0        0x12                              31902    zpool
724      402147539776     0x37     5760     0        0        0x12                              31903    zfs
725      402161483196     0x37     5760     0        0        0x12                              31907    zpool
726      402166381204     0x37     5760     0        0        0x12                              31908    zfs
728      402196276073     0x37     237046   0        0        0x12                              31920    lxc-info
729      402196284725     0x37     33090    0        0        0x12                              31920    lxc-info
730      402203697886     0x37     33090    0        0        0x12                              31922    lxc-info
731      402203726669     0x37     237046   0        0        0x12                              31922    lxc-info
732      402203735025     0x37     33090    0        0        0x12                              31922    lxc-info
733      402210982310     0x37     33090    0        0        0x12                              31924    lxc-info
734      402211008680     0x37     237046   0        0        0x12                              31924    lxc-info
735      402211016766     0x37     33090    0        0        0x12                              31924    lxc-info
736      402218665352     0x37     33090    0        0        0x12                              31926    lxc-info
737      402218749874     0x37     237046   0        0        0x12                              31926    lxc-info
738      402218759581     0x37     33090    0        0        0x12                              31926    lxc-info
739      402226344987     0x37     33090    0        0        0x12                              31928    lxc-info
740      402226373190     0x37     237046   0        0        0x12                              31928    lxc-info
741      402226382087     0x37     33090    0        0        0x12                              31928    lxc-info
742      402233758101     0x37     33090    0        0        0x12                              31930    lxc-info
743      402233792094     0x37     237046   0        0        0x12                              31930    lxc-info
744      402233801927     0x37     33090    0        0        0x12                              31930    lxc-info
745      404110315459     0x37     182855   0        0        0x12                              31959    pvesh
746      404563094638     0x37     33090    0        0        0x12                              32075    lxc-info
747      404563127505     0x37     237046   0        0        0x12                              32075    lxc-info
748      404563138052     0x37     33090    0        0        0x12                              32075    lxc-info
749      406565812513     0x37     182855   0        0        0x12                              32214    pvesh
750      406996114050     0x37     33090    0        0        0x12                              32225    lxc-info
751      406996147099     0x37     237046   0        0        0x12                              32225    lxc-info
752      406996157127     0x37     33090    0        0        0x12                              32225    lxc-info
753      407156004627     0x37     182855   0        0        0x12                              32228    pvesh
754      407580610461     0x37     33090    0        0        0x12                              32235    lxc-info
755      407580643882     0x37     237046   0        0        0x12                              32235    lxc-info
756      407580654101     0x37     33090    0        0        0x12                              32235    lxc-info
757      408063275810     0x37     182855   0        0        0x12                              32242    pvesh
758      408491940820     0x37     33090    0        0        0x12                              32251    lxc-info
759      408491972322     0x37     237046   0        0        0x12                              32251    lxc-info
760      408491982333     0x37     33090    0        0        0x12                              32251    lxc-info
762      410035648749     0x37     33090    0        0        0x12                              32550    lxc-info
763      410035683387     0x37     237046   0        0        0x12                              32550    lxc-info
764      410035694016     0x37     33090    0        0        0x12                              32550    lxc-info
765      410209241770     0x37     182855   0        0        0x12                              32559    pvesh
766      410674729152     0x37     33090    0        0        0x12                              32620    lxc-info
767      410674761812     0x37     237046   0        0        0x12                              32620    lxc-info
768      410674772156     0x37     33090    0        0        0x12                              32620    lxc-info
769      411207471662     0x37     139446   0        0        0x12                              32629    mysqladmin
770      411207482840     0x37     139446   0        0        0x12                              32629    mysqladmin
771      411207502090     0x37     187647   0        0        0x12                              32629    mysqladmin
772      411207519962     0x37     187648   0        0        0x12                              32629    mysqladmin
773      411207537077     0x37     194119   0        0        0x12                              32629    mysqladmin
774      411207543977     0x37     194119   0        0        0x12                              32629    mysqladmin
775      412274574843     0x37     33090    0        0        0x12                              32644    lxc-info
776      412274611483     0x37     237046   0        0        0x12                              32644    lxc-info
777      412274620736     0x37     33090    0        0        0x12                              32644    lxc-info
778      412282876902     0x37     33090    0        0        0x12                              32646    lxc-info
779      412282928259     0x37     237046   0        0        0x12                              32646    lxc-info
780      412282937515     0x37     33090    0        0        0x12                              32646    lxc-info
781      412291290224     0x37     33090    0        0        0x12                              32648    lxc-info
782      412291322778     0x37     237046   0        0        0x12                              32648    lxc-info
783      412291347060     0x37     33090    0        0        0x12                              32648    lxc-info
784      412298440076     0x37     33090    0        0        0x12                              32650    lxc-info
785      412298465593     0x37     237046   0        0        0x12                              32650    lxc-info
786      412298473114     0x37     33090    0        0        0x12                              32650    lxc-info
787      412305593990     0x37     33090    0        0        0x12                              32652    lxc-info
788      412305652469     0x37     237046   0        0        0x12                              32652    lxc-info
789      412305661007     0x37     33090    0        0        0x12                              32652    lxc-info
790      412312858824     0x37     33090    0        0        0x12                              32654    lxc-info
791      412312887206     0x37     237046   0        0        0x12                              32654    lxc-info
792      412312895641     0x37     33090    0        0        0x12                              32654    lxc-info
793      412324108698     0x37     5760     0        0        0x12                              32656    zpool
794      412328982887     0x37     5760     0        0        0x12                              32657    zfs
796      412363929826     0x37     5760     0        0        0x12                              32670    zfs
797      412386082736     0x37     33090    0        0        0x12                              32676    lxc-info
798      412386116648     0x37     237046   0        0        0x12                              32676    lxc-info
799      412386125216     0x37     33090    0        0        0x12                              32676    lxc-info
800      412394026806     0x37     33090    0        0        0x12                              32678    lxc-info
801      412394058436     0x37     237046   0        0        0x12                              32678    lxc-info
802      412394066958     0x37     33090    0        0        0x12                              32678    lxc-info
803      412402470876     0x37     33090    0        0        0x12                              32680    lxc-info
804      412402503387     0x37     237046   0        0        0x12                              32680    lxc-info
805      412402512441     0x37     33090    0        0        0x12                              32680    lxc-info
806      412409750160     0x37     33090    0        0        0x12                              32682    lxc-info
807      412409777332     0x37     237046   0        0        0x12                              32682    lxc-info
808      412409785483     0x37     33090    0        0        0x12                              32682    lxc-info
809      412416928219     0x37     33090    0        0        0x12                              32684    lxc-info
810      412416958049     0x37     237046   0        0        0x12                              32684    lxc-info
811      412416967291     0x37     33090    0        0        0x12                              32684    lxc-info
812      412424239951     0x37     33090    0        0        0x12                              32686    lxc-info
813      412424268671     0x37     237046   0        0        0x12                              32686    lxc-info
814      412424277304     0x37     33090    0        0        0x12                              32686    lxc-info
815      414521519827     0x37     182855   0        0        0x12                              430      pvesh
816      414958523769     0x37     33090    0        0        0x12                              458      lxc-info
817      414958555211     0x37     237046   0        0        0x12                              458      lxc-info
818      414958564632     0x37     33090    0        0        0x12                              458      lxc-info
819      416325456124     0x37     182855   0        0        0x12                              637      pvesh
820      416914501002     0x37     182855   0        0        0x12                              645      pvesh

nur ein einfacher bericht zurück,

auf 0.7.6 upgraden und das System 24 Stunden lang laufen lassen,
z_null_int wird in meinem iotop nicht mehr angezeigt und die ARC-Trefferrate wurde auch in meinem Fall behoben.

auch eine einfache Rückmeldung (auch wenn ich vorher nicht am Gespräch teilgenommen habe).

Ich sehe z_null_int immer noch mit 99,99% in iotop mit
v0.7.6-1, ZFS-Pool-Version 5000, ZFS-Dateisystem-Version 5

Nach dem Upgrade auf 0.7.6-1 auf Proxmox (statt gepatcht 0.7.4) am Freitag kann ich sagen, dass ich auch noch z_null_int in iotop sehe, aber nach zwei Nächten voller Backups kann ich sagen, dass das Problem mit Verlangsamung und Einfrieren verschwunden ist (im Gegensatz zu jedem Backup in den letzten 3 Monaten) nicht auftreten, also werde ich diese Woche weiter testen und berichten, wenn ich Leistungsprobleme habe.

Rosinenpickerei e9a77290081b578144e9a911ad734f67274df82f kann je nach Ihrer genauen Kernel-Version zu weiteren Verbesserungen führen. Dieser ist auch für 0.7.7 (#7238) in der Warteschlange.

für die PVE-Benutzer in dieser Ausgabe: https://github.com/zfsonlinux/zfs/issues/7235#issuecomment -368531631 enthält Informationen zu einem Test-Build des PVE-Kernels mit Commit e9a7729 / PR#7170 backported

Ich habe dieses Problem auch mit Kernel 4.13.0-37, Ubuntu 16.04 mit ZFS-Master unter Verwendung von dkms-Modulen.
Kernel 4.4.0-97 habe ich auch installiert.
Beim Booten auf 4.4.0-97 mit der gleichen Version von zfs war das Problem verschwunden.

Jetzt in iotop sind die Prozesse
txg_sync , l2arc_feed, die wie erwartet herumhüpfen, sie wurden nie mit dem 4.13-Kernel aufgelistet

Der größte Unterschied ist, dass z_null_int nicht einmal in iotop angezeigt wird.
z_null_iss, z_wr_iss , z_wr_int_0-6 wurden bei diesem Problem auch nicht angezeigt.

Ich kann problemlos hin- und herschalten und werde heute Abend versuchen, Screenshots von iotop hochzuladen.

Update-Problem begann mit 4.11 Kernels. , funktioniert gut mit 4.10 und darunter.

@benbennett danke für die zusätzlichen Informationen, die helfen. Um es klarzustellen, Sie haben Master mit Commit e9a7729 ausgeführt und beobachten das Problem immer noch mit 4.11 und neueren Kerneln?

Könnten Sie eine minimale Umgebungs- und Poolkonfiguration zusammenfassen, die zum Reproduzieren des Problems erforderlich ist. Ist eine saubere Ubuntu 16.04-Installation mit einem 4.11-Kernel von der mainline ppa ausreichend?

@behlendorf Ich bin Meister bei cec3a0a1bb08574260a9e39301a24ce79dbfb69a , die den Commit enthält. Ich frage mich, ob sich eines der Meltdown- / Spectre-Patches darauf auswirkt, aber das Deaktivieren mit der Option nopti noretpoline hat keine Auswirkung. Ich muss überprüfen, ob 4.10 die kpti/spectre_v2-Änderungen und die Intel-Firmware installiert hat.
Hier sind die Kernel, auf denen ich getestet habe, alle werden nur von xenial-updates xenial-security-repos installiert.
Sie müssen sie manuell installieren aufrufen, ich habe nur Synaptic verwendet und die höchste Version jedes Mainline-Kernels ausgewählt. Ich musste ihm aus irgendeinem Grund sagen, dass es die Header installieren soll.
Der Pool ist raidz2 (4 Sas-Laufwerke, 2 SATA je 2 TB, wobei Samsung SSD als Protokoll und Cache fungiert (2 davon). Das einzige Merkwürdige, was ich habe, ist, dass sich die beiden SSDs im mdadm raid0-Array befinden und in einen Cache und ein Protokoll partitioniert sind Gerät.
Oh, es ist sauber 16.04 installieren.
/boot/initrd.img-4.10.0-42-lowlatency /boot/initrd.img-4.13.0-37-lowlatency
/boot/initrd.img-4.11.0-14-lowlatency
linux-image-4.11.0-14-lowlatency:
500 http://us.archive.ubuntu.com/ubuntu xenial-updates/main amd64 Pakete
500 http://security.ubuntu.com/ubuntu xenial-security/main amd64 Pakete
Kernel Parms
Optionen zfs zfs_prefetch_disable=1
Optionen zfs l2arc_feed_again=1
Optionen zfs l2arc_feed_secs=1
Optionen zfs l2arc_headroom=2
Optionen zfs l2arc_headroom_boost=200
Optionen zfs l2arc_noprefetch=0
Optionen zfs l2arc_norw=0
Optionen zfs l2arc_write_boost=600100100
Optionen zfs l2arc_write_max=1100100100
Optionen zfs zfs_arc_max=18100100100
Optionen zfs zfs_arc_min=10100100100
Optionen zfs zfs_dirty_data_max_max_percent=35
Optionen zfs zfs_dirty_data_max_percent=30
Optionen zfs zfs_immediate_write_sz=10100100100
Optionen zfs zfs_per_txg_dirty_frees_percent=40
Optionen zfs zfs_vdev_aggregation_limit=16777216
Optionen zfs zfs_vdev_async_read_max_active=12
Optionen zfs zfs_vdev_async_read_min_active=5
Optionen zfs zfs_vdev_async_write_active_max_dirty_percent=70
Optionen zfs zfs_vdev_async_write_active_min_dirty_percent=20
Optionen zfs zfs_vdev_async_write_max_active=16
Optionen zfs zfs_vdev_async_write_min_active=5
Optionen zfs zfs_vdev_scheduler=Deadline
Optionen zfs zfs_vdev_scrub_max_active=2
Optionen zfs zfs_vdev_scrub_min_active=1
Optionen zfs zfs_vdev_sync_read_max_active=16
Optionen zfs zfs_vdev_sync_read_min_active=10
Optionen zfs zfs_vdev_sync_write_max_active=16
Optionen zfs zfs_vdev_sync_write_min_active=10
Optionen zfs zio_dva_throttle_enabled=0
Optionen zfs zvol_threads=32
Optionen zfs zfs_nocacheflush=1

Bei mir wurde das Problem gelöst mit:

root<strong i="6">@vmx02</strong>:~# uname -a
Linux vmx02 4.13.16-2-pve #1 SMP PVE 4.13.16-47 (Mon, 9 Apr 2018 09:58:12 +0200) x86_64 GNU/Linux
root<strong i="7">@vmx02</strong>:~# apt-cache policy zfs-initramfs
zfs-initramfs:
  Installed: 0.7.7-pve1~bpo9
  Candidate: 0.7.7-pve1~bpo9
  Version table:
 *** 0.7.7-pve1~bpo9 500
        500 http://download.proxmox.com/debian/pve stretch/pve-no-subscription amd64 Packages
        100 /var/lib/dpkg/status

Ich kann nicht sagen, ob es das Kernel-Update oder das ZFS-Update war :/

Ein weiterer Datenpunkt aus den proxmox-Foren (https://forum.proxmox.com/threads/z_null_int-with-99-99-io-load-after-5-1-upgrade.38136/page-3#post-207766 ):

I just want to add that I needed upgrade to 4.13.16-2-pve for the 0.7.7 fix to work.
Pure ZOL upgrade didn't work until after kernel upgrade to the latest.
Even relatively new 4.13.13-6-pve kernel didn't work.

Vielleicht hat der Kernel also auch einige relevante Fixes erhalten?

Am So., 29. April 2018 um 23:57:34 -0700 schrieb Florian Apolloner:

Ein weiterer Datenpunkt aus den proxmox-Foren (https://forum.proxmox.com/threads/z_null_int-with-99-99-io-load-after-5-1-upgrade.38136/page-3#post-207766 ):

I just want to add that I needed upgrade to 4.13.16-2-pve for the 0.7.7 fix to work.
Pure ZOL upgrade didn't work until after kernel upgrade to the latest.
Even relatively new 4.13.13-6-pve kernel didn't work.

Vielleicht hat der Kernel also auch einige relevante Fixes erhalten?

in PVE enthält der Kernel die SPL- und ZFS-Module, also ja, natürlich
die Kernelpaketversion ist auch relevant ;)

Oh, mit all den zfs-Paketen auf PVE war ich ein bisschen verwirrt; mein Fehler.

Warum wird dieses Thema geöffnet? Ist 0.7.9 in irgendeiner Weise betroffen?

Als Hauptursache für dieses Problem wurde #7289 ermittelt, die sich hauptsächlich auf Systemen mit niedrigen Standard-Kernel-HZ-Werten manifestieren würde. Das Problem wurde in 0.7.7 behoben. Ich schließe diesen Fehler als behoben.

War diese Seite hilfreich?
0 / 5 - 0 Bewertungen