Re: PC Desktop nuovo: Grub e dischi
- To: debian-italian@lists.debian.org
- Subject: Re: PC Desktop nuovo: Grub e dischi
- From: Diego Zuccato <diego.zuccato@unibo.it>
- Date: Tue, 2 May 2023 08:27:12 +0200
- Message-id: <[🔎] f638998e-7906-385b-9207-a2a61bbd8148@unibo.it>
- In-reply-to: <dda5a1f3-1487-943b-b985-d14d9aa60fd4@riminilug.it>
- References: <f9fe4e78-a7f4-ed48-3649-2c2ac0ac0b4b@fastwebnet.it> <alpine.DEB.2.21.2303271042410.31823@w.trail.it> <08e8b087-670e-c5e4-ca49-4d80774f303f@fastwebnet.it> <7547d3f5-75bd-4aa9-d3a7-a9631b734611@teppisti.it> <alpine.DEB.2.21.2303281300050.15870@w.trail.it> <258b9ef3-9955-0197-d9d5-46e4fe687def@fastwebnet.it> <CAH67UdmQvFj_9wZ0QAdPKL0w0Cxh=mqj1_-1pWwPam0b1HwOYA@mail.gmail.com> <73956950-6780-f1b6-cb90-c103950147c4@riminilug.it> <CAH67Ud=uegaa+2n9Lr5XStaC1whGhXc2z6oECaj-FH6L+xsx3w@mail.gmail.com> <35270775-f9e4-2d44-a014-a4ff28a22ff0@riminilug.it> <E573481A-E6C7-43B2-BBF4-0B17CABD5322@inventati.org> <1559729a-9189-5853-8687-e787acec41cd@riminilug.it> <135B9286-65A1-4403-9659-028418165818@inventati.org> <35f9b6f7-baa9-11e6-0f41-949cbe4c259a@unibo.it> <7a0efe62-46c0-516b-a82f-b4cdda2bcc40@riminilug.it> <668c8b43-4692-d6c5-8457-b9ee76fde2f5@unibo.it> <34f5c677-1a16-f807-5ee4-03a25be582db@riminilug.it> <dda5a1f3-1487-943b-b985-d14d9aa60fd4@riminilug.it>
Il 28/04/2023 15:30, Piviul ha scritto:
Scusa ma chi è che usa un disco da 12T con un'unica partizione?
Io. 90 dischi, veramente :) E nella nuova iterazione diventeranno 18
RAID5 da 44T (gruppi di 5: 4+1), se riesco a risolvere il problema col
fail del RAID...
In
ogni caso un fsck.ext4 anche su un volume di pochissimi tera mette a
dura prova... ma btrfs o xfs hanno un sistema di filesystemcheck molto
più veloce?
Con XFS è praticamente non misurabile (quasi istantaneo) anche in caso
di spegnimento "sporco". A meno di errori sulla RAM.
comunque ho fatto una prova, volume di 3T non cachato su disco
meccanico da 12T:
[...]
poco più di 3 minuti... mi sembra ad occhio accettabile; xfs o btrfs
farebbe di meglio?
Su uno dei dischi da 12T, mentre inizializza il RAID su altri 5:
root@clustor01:/srv/bricks# df 05
File system 1K-blocchi Usati Disponib. Uso% Montato su
/dev/sdf1 11716796416 1455579512 10261216904 13% /srv/bricks/05
root@clustor01:/srv/bricks# umount 05
root@clustor01:/srv/bricks# date && xfs_repair /dev/sdf1 && date
mar 2 mag 2023, 08:00:56, CEST
Phase 1 - find and verify superblock...
Phase 2 - using internal log
- zero log...
- scan filesystem freespace and inode maps...
- found root inode chunk
Phase 3 - for each AG...
- scan and clear agi unlinked lists...
- process known inodes and perform inode discovery...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
- agno = 4
- agno = 5
- agno = 6
- agno = 7
- agno = 8
- agno = 9
- agno = 10
- process newly discovered inodes...
Phase 4 - check for duplicate blocks...
- setting up duplicate extent list...
- check for inodes claiming duplicate blocks...
- agno = 0
- agno = 9
- agno = 6
- agno = 8
- agno = 5
- agno = 10
- agno = 1
- agno = 2
- agno = 3
- agno = 7
- agno = 4
Phase 5 - rebuild AG headers and trees...
- reset superblock...
Phase 6 - check inode connectivity...
- resetting contents of realtime bitmap and summary inodes
- traversing filesystem ...
- traversal finished ...
- moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
done
mar 2 mag 2023, 08:19:21, CEST
Ma, come detto, normalmente (leggi: al reboot, anche dopo molti mesi di
uptime) non è necessario e fa velocissimo. xfs_repair è solo per casi gravi.
--
Diego Zuccato
DIFA - Dip. di Fisica e Astronomia
Servizi Informatici
Alma Mater Studiorum - Università di Bologna
V.le Berti-Pichat 6/2 - 40127 Bologna - Italy
tel.: +39 051 20 95786
Reply to: