Borg: 博格列表的大小占位符<repo/>

创建于 2017-07-24  ·  5评论  ·  资料来源: borgbackup/borg

borg list仅支持列出档案、档案、时间和档案的 id。 但是,当我看到我需要空间并想要删除大档案时(例如,因为 https://github.com/borgbackup/borg/issues/2870),我想查看所有档案大小的概述找到最大的并可能删除它们。
我知道我可以borg info每个存档,但是这需要一些时间并且对于许多存档来说是不方便的。
当然,我只对“此存档”的“重复数据删除大小”感兴趣。

但是如果你愿意,你也可以总结这些值(或你如何做)并在底部显示一行“所有档案的大小:XY GB”。

也许您需要以某种方式/某处缓存此信息,但这应该是可能的,因为通常存档的大小不会改变,因此缓存永远不会过期(除非存档被删除)。

最有用的评论

我自己希望有这个功能,我把这个(技术上:眨眼:)单线放在一起以获得我希望它看起来的档案列表:

printf 'Archive\t\t\t\t\tOrig\tComp\tDedup\n'; printf '%-32.32s\t%s\t%s\t%s\n' $(borg info --json --sort-by name --glob-archives '*' REPO | jq '.archives[] | "\(.name) \(.stats.original_size) \(.stats.compressed_size) \(.stats.deduplicated_size)"' | sed --expression='s/^"//;s/"$//' | numfmt --field='2-4' --to=iec)

它使用jq来格式化 JSON 并使用numfmt来自coreutils来使大小易于阅读。 结果看起来像这样(修剪为具有代表性的一组线条):

Archive                 Orig    Comp    Dedup
hostname-home-20190613-090600       288G    92G 12K
hostname-home-20190613-091013       288G    92G 117K
hostname-home-20190617-005337       220G    61G 6.9M
hostname-home-20190617-022904       288G    92G 16M
hostname-home-20190617-225658       288G    92G 40K
hostname-sysconfig-20190617-023108  12M 3.2M    40K
hostname-sysconfig-20190617-225820  12M 3.2M    32K
hostname-sysconfig-20190618-144623  12M 3.2M    105K
hostname-sysconfig-20190621-224259  13M 3.3M    110K
hostname-system-20190613-081754     300G    97G 20M
hostname-system-20190613-091212     300G    97G 14M
hostname-system-20190618-144635     300G    97G 37M
hostname-system-20190621-224311     308G    98G 4.6M
hostname-system-20190621-230350     308G    98G 617K

只有 39 个存档速度还可以,但我想将--last 1作为备份运行的一部分并将其存储在单独的日志中以按需查询将是在实践中使用它的方式。

所有5条评论

直到最近,此操作所需的基础设施还缺失——当我为borg list <repo>实现“评论”占位符时,我将它添加到(到 master 分支)。 它现在可以按需计算内容,而不仅仅是像以前一样显示清单条目中的数据。

但是,请注意,计算需要读取整个存档元数据的任何内容都会很慢,尤其是。 如果列表显示许多档案和/或存储库是通过慢速连接访问的。

borg info -a '*' , borg info --last/first x

borg info -a '*'

有趣的是,这是可能的,但速度很慢。

但是,请注意,计算需要读取整个存档元数据的任何内容都会很慢,尤其是。 如果列表显示许多档案和/或存储库是通过慢速连接访问的。

是的,这就是为什么我说:你不能缓存这个事实吗?

有趣的是,这是可能的,但速度很慢。

_Deduplicated size_ 必须被计算,并且不能被缓存——所以这总是有点慢,尽管#2764 使它更快。

我自己希望有这个功能,我把这个(技术上:眨眼:)单线放在一起以获得我希望它看起来的档案列表:

printf 'Archive\t\t\t\t\tOrig\tComp\tDedup\n'; printf '%-32.32s\t%s\t%s\t%s\n' $(borg info --json --sort-by name --glob-archives '*' REPO | jq '.archives[] | "\(.name) \(.stats.original_size) \(.stats.compressed_size) \(.stats.deduplicated_size)"' | sed --expression='s/^"//;s/"$//' | numfmt --field='2-4' --to=iec)

它使用jq来格式化 JSON 并使用numfmt来自coreutils来使大小易于阅读。 结果看起来像这样(修剪为具有代表性的一组线条):

Archive                 Orig    Comp    Dedup
hostname-home-20190613-090600       288G    92G 12K
hostname-home-20190613-091013       288G    92G 117K
hostname-home-20190617-005337       220G    61G 6.9M
hostname-home-20190617-022904       288G    92G 16M
hostname-home-20190617-225658       288G    92G 40K
hostname-sysconfig-20190617-023108  12M 3.2M    40K
hostname-sysconfig-20190617-225820  12M 3.2M    32K
hostname-sysconfig-20190618-144623  12M 3.2M    105K
hostname-sysconfig-20190621-224259  13M 3.3M    110K
hostname-system-20190613-081754     300G    97G 20M
hostname-system-20190613-091212     300G    97G 14M
hostname-system-20190618-144635     300G    97G 37M
hostname-system-20190621-224311     308G    98G 4.6M
hostname-system-20190621-230350     308G    98G 617K

只有 39 个存档速度还可以,但我想将--last 1作为备份运行的一部分并将其存储在单独的日志中以按需查询将是在实践中使用它的方式。

此页面是否有帮助?
0 / 5 - 0 等级