Projet

Général

Profil

Management Cluster Ceph » Historique » Version 55

Aymeric APLU, 28/01/2022 23:38

1 10 Mehdi Abaakouk
{{>toc}}
2 1 Mehdi Abaakouk
3 10 Mehdi Abaakouk
h1. Management Cluster Ceph
4 9 Mehdi Abaakouk
5 8 Mehdi Abaakouk
h2. Liens
6 8 Mehdi Abaakouk
7 45 Mehdi Abaakouk
* [[Cluster with libvirt]]
8 44 Mehdi Abaakouk
* [[HOWTO add a VM]]
9 44 Mehdi Abaakouk
* [[Management_Cluster_Ceph]]
10 44 Mehdi Abaakouk
* [[Ceph]]
11 8 Mehdi Abaakouk
* [[Ceph-Sharing-Disk]]
12 46 Mehdi Abaakouk
* [[Openstack Management TTNN]] (obsolete)
13 44 Mehdi Abaakouk
* [[Openstack Setup VM pas dans openstack]] (obsolete)
14 44 Mehdi Abaakouk
* [[Openstack Installation TTNN]] (obsolete)
15 44 Mehdi Abaakouk
* [[Openstack Installation nouvelle node du cluster]] (obsolete)
16 44 Mehdi Abaakouk
* "Openstack tools for ttnn":/projects/git-tetaneutral-net/repository/openstack-tools
17 8 Mehdi Abaakouk
18 2 Mehdi Abaakouk
h2. Ajout d'un OSD classique
19 2 Mehdi Abaakouk
20 55 Aymeric APLU
<pre>
21 55 Aymeric APLU
$ ceph-volume lvm create --crush-device-class ssd --bluestore --data /dev/sde
22 55 Aymeric APLU
## recuperer id osd nouveau ssd:
23 55 Aymeric APLU
$ ceph osd crush move osd.XY root=ssd host=gZZ-ssd
24 55 Aymeric APLU
## hdd:
25 55 Aymeric APLU
$ ceph osd crush move osd.XY root=default host=gZZ
26 55 Aymeric APLU
</pre>
27 55 Aymeric APLU
28 55 Aymeric APLU
penser a faire reweight
29 55 Aymeric APLU
30 55 Aymeric APLU
31 55 Aymeric APLU
*obsolette*
32 52 Aymeric APLU
*voir les fonctions helper*
33 20 Mehdi Abaakouk
34 20 Mehdi Abaakouk
<pre>
35 1 Mehdi Abaakouk
$ ceph-disk prepare --zap-disk --cluster-uuid 1fe74663-8dfa-486c-bb80-3bd94c90c967 --fs-type=ext4 /dev/sdX
36 34 Laurent GUERBY
$ tune2fs -c 0 -i 0 -m 0 /dev/sdX1
37 1 Mehdi Abaakouk
$ smartctl --smart=on /dev/sdX  # Pour le monitoring.
38 1 Mehdi Abaakouk
</pre>
39 1 Mehdi Abaakouk
40 1 Mehdi Abaakouk
Récuperer l'id avec (c'est celui tout en bas pas accroché à l'arbre):
41 1 Mehdi Abaakouk
42 1 Mehdi Abaakouk
<pre>
43 1 Mehdi Abaakouk
ceph osd tree
44 1 Mehdi Abaakouk
</pre>
45 1 Mehdi Abaakouk
46 26 Mehdi Abaakouk
*DEBUT WORKAROUND BUG PREPARE*
47 26 Mehdi Abaakouk
48 26 Mehdi Abaakouk
Dans le cas ou l'osd est DOWN après le prepare c'est surement ce bug
49 26 Mehdi Abaakouk
50 26 Mehdi Abaakouk
ID est le premier numero libre d'osd en partant de zero (en bas du ceph osd tree)
51 26 Mehdi Abaakouk
52 26 Mehdi Abaakouk
<pre>
53 26 Mehdi Abaakouk
mkdir /var/lib/ceph/osd/ceph-<ID>
54 26 Mehdi Abaakouk
chown ceph:ceph /var/lib/ceph/osd/ceph-<ID>
55 26 Mehdi Abaakouk
ceph-disk activate /dev/sd<X>1
56 26 Mehdi Abaakouk
systemctl status ceph-osd@<ID>
57 26 Mehdi Abaakouk
</pre>
58 26 Mehdi Abaakouk
59 26 Mehdi Abaakouk
*FIN WORKAROUND BUG PREPARE*
60 26 Mehdi Abaakouk
61 17 Mehdi Abaakouk
Pour un HDD: 
62 2 Mehdi Abaakouk
<pre>
63 2 Mehdi Abaakouk
$ ceph osd crush add osd.<ID> 0 root=default host=<host>
64 1 Mehdi Abaakouk
</pre>
65 2 Mehdi Abaakouk
66 17 Mehdi Abaakouk
Pour un SSD:
67 2 Mehdi Abaakouk
<pre>
68 2 Mehdi Abaakouk
$ ceph osd crush add osd.<ID> 0 root=ssd host=<host>-ssd
69 2 Mehdi Abaakouk
</pre>
70 2 Mehdi Abaakouk
71 42 Mehdi Abaakouk
Ensuite, autoriser Ceph à mettre des data dessus WEIGHT == 1 par 1To (ie: 4To -> 4)
72 2 Mehdi Abaakouk
73 2 Mehdi Abaakouk
<pre>
74 42 Mehdi Abaakouk
$ ceph osd crush reweight osd.<ID> <WEIGHT>
75 19 Mehdi Abaakouk
</pre>
76 19 Mehdi Abaakouk
77 35 Mehdi Abaakouk
h3. helper
78 35 Mehdi Abaakouk
79 36 Mehdi Abaakouk
<pre>
80 35 Mehdi Abaakouk
add_osd(){
81 35 Mehdi Abaakouk
  dev="$1"
82 35 Mehdi Abaakouk
  type="$2"
83 35 Mehdi Abaakouk
  host=$(hostname -s)
84 35 Mehdi Abaakouk
  [ "$type" == "ssd" ] && host="${host}-ssd"
85 39 Mehdi Abaakouk
86 39 Mehdi Abaakouk
  found=0 ; next=-1 ; for i in $(ceph osd ls); do next=$((next+1)) ; [ $(($i - $next)) -gt 0 ] && found=1 && break; done ; [ $found -eq 0 ] && next=$((next+1))
87 39 Mehdi Abaakouk
88 35 Mehdi Abaakouk
  mkdir /var/lib/ceph/osd/ceph-$next
89 35 Mehdi Abaakouk
  chown ceph:ceph /var/lib/ceph/osd/ceph-$next
90 35 Mehdi Abaakouk
91 41 Mehdi Abaakouk
  ceph-disk prepare --zap-disk --cluster-uuid 1fe74663-8dfa-486c-bb80-3bd94c90c967 --fs-type=ext4 $dev
92 37 Mehdi Abaakouk
  tune2fs -c 0 -i 0 -m 0 ${dev}1
93 1 Mehdi Abaakouk
  smartctl --smart=on $dev
94 37 Mehdi Abaakouk
95 37 Mehdi Abaakouk
  systemctl start ceph-osd@$next
96 35 Mehdi Abaakouk
  systemctl status ceph-osd@$next
97 35 Mehdi Abaakouk
98 38 Mehdi Abaakouk
  sleep 1
99 54 Mehdi Abaakouk
  ceph osd crush add osd.$next 0 root="${type}" host="${host}"
100 35 Mehdi Abaakouk
}
101 36 Mehdi Abaakouk
</pre>
102 35 Mehdi Abaakouk
103 47 Fabien ADAM
Exemple: @add_osd /dev/sdb default@ pour un HDD
104 47 Fabien ADAM
105 53 Aymeric APLU
Une fois un disk (ou ssd) ajouté le disque à un poid de 0. A reweight après (attention ça va lance le déplacement des données).
106 53 Aymeric APLU
107 19 Mehdi Abaakouk
h2. Vider un OSD:
108 19 Mehdi Abaakouk
109 1 Mehdi Abaakouk
<pre>
110 35 Mehdi Abaakouk
vider_osd(){
111 19 Mehdi Abaakouk
  name="$1"
112 19 Mehdi Abaakouk
  ceph osd out ${name}
113 19 Mehdi Abaakouk
  ceph osd crush reweight ${name} 0
114 19 Mehdi Abaakouk
  ceph osd reweight ${name} 0
115 19 Mehdi Abaakouk
}
116 19 Mehdi Abaakouk
</pre>
117 19 Mehdi Abaakouk
118 19 Mehdi Abaakouk
h2. Suppression d'un OSD:
119 19 Mehdi Abaakouk
120 51 Aymeric APLU
si la machine host est toujours présente lancer cette machine avce le numéro de l'osd sur la machine en question  
121 19 Mehdi Abaakouk
<pre>
122 19 Mehdi Abaakouk
remove_osd(){
123 19 Mehdi Abaakouk
 name="$1" 
124 19 Mehdi Abaakouk
 ceph osd out ${name}
125 19 Mehdi Abaakouk
 systemctl stop ceph-osd@${name#osd.}
126 19 Mehdi Abaakouk
 ceph osd crush remove ${name}
127 19 Mehdi Abaakouk
 ceph auth del ${name}
128 19 Mehdi Abaakouk
 ceph osd rm ${name}
129 19 Mehdi Abaakouk
 ceph osd tree
130 19 Mehdi Abaakouk
}
131 19 Mehdi Abaakouk
</pre>
132 47 Fabien ADAM
133 51 Aymeric APLU
si la machine n'est plus présente lancer cette commande avec le numéro de osd depuis n'importe quel machine.
134 50 Aymeric APLU
135 50 Aymeric APLU
<pre>
136 50 Aymeric APLU
remove_osd_without_system(){
137 50 Aymeric APLU
 name="$1" 
138 50 Aymeric APLU
 ceph osd out ${name}
139 50 Aymeric APLU
 ceph osd crush remove ${name}
140 50 Aymeric APLU
 ceph auth del ${name}
141 50 Aymeric APLU
 ceph osd rm ${name}
142 50 Aymeric APLU
 ceph osd tree
143 50 Aymeric APLU
}
144 50 Aymeric APLU
</pre>
145 50 Aymeric APLU
146 50 Aymeric APLU
147 19 Mehdi Abaakouk
Exemple : @remove_osd osd.21@
148 1 Mehdi Abaakouk
149 51 Aymeric APLU
Attention supprimer un osd va lancer le déplacement des données donc faire ça par lot. 
150 49 Aymeric APLU
151 19 Mehdi Abaakouk
h2. Arrêter les IO de recovery:
152 19 Mehdi Abaakouk
153 19 Mehdi Abaakouk
<pre>
154 19 Mehdi Abaakouk
ceph osd set nobackfill 
155 19 Mehdi Abaakouk
ceph osd set norebalance
156 19 Mehdi Abaakouk
ceph osd set norecover
157 19 Mehdi Abaakouk
</pre>
158 19 Mehdi Abaakouk
159 23 Mehdi Abaakouk
h2. Procédure d'upgrade
160 23 Mehdi Abaakouk
161 23 Mehdi Abaakouk
+
162 23 Mehdi Abaakouk
_*/!\Lire la release note (contient très très souvent des trucs à faire en plus) /!\*_+
163 23 Mehdi Abaakouk
164 23 Mehdi Abaakouk
165 23 Mehdi Abaakouk
h4. Upgrade des MONs:
166 23 Mehdi Abaakouk
167 23 Mehdi Abaakouk
Mettre le flags noout:
168 23 Mehdi Abaakouk
169 23 Mehdi Abaakouk
<pre>ceph osd set noout</pre>
170 23 Mehdi Abaakouk
171 23 Mehdi Abaakouk
Sur chaque MONs (g1/g2/g3)
172 23 Mehdi Abaakouk
<pre>
173 23 Mehdi Abaakouk
apt-get upgrade -y
174 23 Mehdi Abaakouk
systemctl restart ceph-mon@g*
175 23 Mehdi Abaakouk
ceph -s
176 23 Mehdi Abaakouk
</pre>
177 23 Mehdi Abaakouk
178 23 Mehdi Abaakouk
Note que seulement le node 'leader/master' va provoquer une micro/nano coupure, souvent c'est même invisible.
179 23 Mehdi Abaakouk
180 23 Mehdi Abaakouk
h4. Upgrade des OSDs:
181 23 Mehdi Abaakouk
182 23 Mehdi Abaakouk
Pour chaque machine
183 23 Mehdi Abaakouk
<pre>
184 23 Mehdi Abaakouk
apt-get upgrade -y
185 23 Mehdi Abaakouk
systemctl restart ceph-osd@*
186 23 Mehdi Abaakouk
</pre>
187 23 Mehdi Abaakouk
188 23 Mehdi Abaakouk
Puis attendre que le recovery termine avant de faire la suivante.
189 23 Mehdi Abaakouk
190 23 Mehdi Abaakouk
Une fois toutes les OSDs upgrader et relancer, faire:
191 23 Mehdi Abaakouk
192 23 Mehdi Abaakouk
<pre>ceph osd unset noout</pre>
193 23 Mehdi Abaakouk
194 19 Mehdi Abaakouk
h2. Remplacement à froid d'un tier cache:
195 19 Mehdi Abaakouk
196 19 Mehdi Abaakouk
upstream  doc: http://docs.ceph.com/docs/master/rados/operations/cache-tiering/
197 19 Mehdi Abaakouk
198 19 Mehdi Abaakouk
<pre>
199 19 Mehdi Abaakouk
ceph osd tier cache-mode ec8p2c forward
200 19 Mehdi Abaakouk
rados -p ec8p2c cache-flush-evict-all
201 19 Mehdi Abaakouk
ceph osd tier remove-overlay ec8p2
202 19 Mehdi Abaakouk
ceph osd tier remove ec8p2 ec8p2c
203 19 Mehdi Abaakouk
204 19 Mehdi Abaakouk
rados rmpool ec8p2c ec8p2c  --yes-i-really-really-mean-ita
205 19 Mehdi Abaakouk
ceph osd pool create ec8p2c 128 128 replicated
206 19 Mehdi Abaakouk
207 19 Mehdi Abaakouk
ceph osd tier add ec8p2 ec8p2c
208 19 Mehdi Abaakouk
ceph osd tier cache-mode ec8p2c writeback
209 19 Mehdi Abaakouk
ceph osd tier set-overlay ec8p2 ec8p2c
210 19 Mehdi Abaakouk
211 19 Mehdi Abaakouk
ceph osd pool set ec8p2c size 3
212 19 Mehdi Abaakouk
ceph osd pool set ec8p2c min_size 2
213 19 Mehdi Abaakouk
ceph osd pool set ec8p2c hit_set_type bloom
214 19 Mehdi Abaakouk
215 19 Mehdi Abaakouk
ceph osd pool set ec8p2c hit_set_count 1
216 19 Mehdi Abaakouk
ceph osd pool set ec8p2c hit_set_period 3600
217 19 Mehdi Abaakouk
ceph osd pool set ec8p2c target_max_bytes 200000000000
218 19 Mehdi Abaakouk
ceph osd pool set ec8p2c target_max_objects 10000000
219 19 Mehdi Abaakouk
ceph osd pool set ec8p2c cache_target_dirty_ratio 0.4
220 19 Mehdi Abaakouk
ceph osd pool set ec8p2c cache_target_full_ratio 0.8
221 19 Mehdi Abaakouk
</pre>
222 19 Mehdi Abaakouk
223 16 Mehdi Abaakouk
h2. Ajout d'un OSD qui partage le SSD avec l'OS (OBSOLETE PLUS COMPATIBLE AVEC LES FUTURES VERSION DE CEPH)
224 2 Mehdi Abaakouk
225 2 Mehdi Abaakouk
226 2 Mehdi Abaakouk
En général avec ceph, on donne un disque, ceph créé 2 partitions une pour le journal de l'OSD, l'autre pour les datas
227 2 Mehdi Abaakouk
mais pour le SSD de tetaneutral qui a aussi l'OS, voici la méthode
228 2 Mehdi Abaakouk
229 2 Mehdi Abaakouk
Création manuelle de la partition de data ceph /dev/sda2 ici
230 7 Mehdi Abaakouk
231 7 Mehdi Abaakouk
Debian (MBR format):
232 2 Mehdi Abaakouk
<pre>
233 5 Mehdi Abaakouk
apt-get install partprobe
234 5 Mehdi Abaakouk
fdisk /dev/sda
235 5 Mehdi Abaakouk
236 2 Mehdi Abaakouk
n
237 14 Mehdi Abaakouk
p
238 14 Mehdi Abaakouk
<enter>
239 14 Mehdi Abaakouk
<enter>
240 14 Mehdi Abaakouk
<enter>
241 14 Mehdi Abaakouk
<enter>
242 14 Mehdi Abaakouk
w
243 14 Mehdi Abaakouk
244 14 Mehdi Abaakouk
$ partprobe
245 14 Mehdi Abaakouk
</pre>
246 14 Mehdi Abaakouk
247 14 Mehdi Abaakouk
Ubuntu (GPT format):
248 2 Mehdi Abaakouk
<pre>
249 2 Mehdi Abaakouk
# parted /dev/sdb
250 2 Mehdi Abaakouk
GNU Parted 2.3
251 13 Mehdi Abaakouk
Using /dev/sdb
252 13 Mehdi Abaakouk
Welcome to GNU Parted! Type 'help' to view a list of commands.
253 13 Mehdi Abaakouk
(parted) print                                                            
254 18 Mehdi Abaakouk
Model: ATA SAMSUNG MZ7KM480 (scsi)
255 13 Mehdi Abaakouk
Disk /dev/sdb: 480GB
256 13 Mehdi Abaakouk
Sector size (logical/physical): 512B/512B
257 13 Mehdi Abaakouk
Partition Table: msdos
258 13 Mehdi Abaakouk
259 13 Mehdi Abaakouk
Number  Start   End     Size    Type     File system     Flags
260 2 Mehdi Abaakouk
 1      1049kB  20.0GB  20.0GB  primary  ext4            boot
261 2 Mehdi Abaakouk
 2      20.0GB  36.0GB  16.0GB  primary  linux-swap(v1)
262 15 Mehdi Abaakouk
263 15 Mehdi Abaakouk
(parted) mkpart                                                           
264 15 Mehdi Abaakouk
Partition type?  primary/extended?                                        
265 15 Mehdi Abaakouk
Partition type?  primary/extended? primary
266 15 Mehdi Abaakouk
File system type?  [ext2]? xfs                                            
267 15 Mehdi Abaakouk
Start?                                                                    
268 15 Mehdi Abaakouk
Start? 36.0GB                                                             
269 15 Mehdi Abaakouk
End? 100%                                                                 
270 1 Mehdi Abaakouk
(parted) print                                                            
271 1 Mehdi Abaakouk
Model: ATA SAMSUNG MZ7KM480 (scsi)
272 1 Mehdi Abaakouk
Disk /dev/sdb: 480GB
273 1 Mehdi Abaakouk
Sector size (logical/physical): 512B/512B
274 1 Mehdi Abaakouk
Partition Table: msdos
275 1 Mehdi Abaakouk
276 1 Mehdi Abaakouk
Number  Start   End     Size    Type     File system     Flags
277 1 Mehdi Abaakouk
 1      1049kB  20.0GB  20.0GB  primary  ext4            boot
278 1 Mehdi Abaakouk
 2      20.0GB  36.0GB  16.0GB  primary  linux-swap(v1)
279 1 Mehdi Abaakouk
 3      36.0GB  480GB   444GB   primary
280 1 Mehdi Abaakouk
281 1 Mehdi Abaakouk
(parted) quit                                                             
282 1 Mehdi Abaakouk
Information: You may need to update /etc/fstab.
283 1 Mehdi Abaakouk
</pre>
284 1 Mehdi Abaakouk
285 1 Mehdi Abaakouk
On prepare le disk comme normalement
286 1 Mehdi Abaakouk
287 1 Mehdi Abaakouk
<pre>
288 1 Mehdi Abaakouk
ceph-disk prepare --fs-type=ext4 --cluster-uuid 1fe74663-8dfa-486c-bb80-3bd94c90c967 /dev/sda2
289 1 Mehdi Abaakouk
ceph-disk activate /dev/sda2
290 1 Mehdi Abaakouk
ceph osd crush add osd.<ID> 0 root=ssd host=g3-ssd
291 1 Mehdi Abaakouk
</pre>
292 1 Mehdi Abaakouk
293 1 Mehdi Abaakouk
Ensuite, autoriser Ceph à mettre des data dessus:
294 1 Mehdi Abaakouk
295 1 Mehdi Abaakouk
<pre>
296 1 Mehdi Abaakouk
$ /root/tools/ceph-reweight-osds.sh osd.<ID>
297 1 Mehdi Abaakouk
</pre>
298 28 Laurent GUERBY
299 48 Fabien ADAM
h2. Remplacement des disques et des OSD correspondants
300 48 Fabien ADAM
301 48 Fabien ADAM
Régulièrement les disques tombent en panne, particulièrement au sein de l'asso où la température des différentes salles est élevée.
302 48 Fabien ADAM
303 48 Fabien ADAM
Voici la procédure générale à suivre pour maintenir le cluster Ceph :
304 48 Fabien ADAM
305 48 Fabien ADAM
+Partie 1+ : opérations matérielles
306 48 Fabien ADAM
307 48 Fabien ADAM
# Migrer les VMs sur un autre hôte (cf partie Openstack/Libvirt) *OU* prévoir l'arrêt des VM suivi d'un remplacement du/des disque(s) rapide
308 48 Fabien ADAM
# Identifier le(s) disque(s) à remplacer
309 48 Fabien ADAM
## Récupérer le(s) OSD down de la machine @ceph osd tree@
310 48 Fabien ADAM
## Trouver le(s) modèle(s) ainsi que sa taille. @lsblk -S@
311 48 Fabien ADAM
# Éteindre la machine, remplacer le(s) disque(s) défectueu(x), et la redémarrer
312 48 Fabien ADAM
## En cas de problème, brancher l'écran pour valider éventuellement un changement dans le bios, ou comprendre tout autre problème
313 48 Fabien ADAM
# Rédémarrer les VM si nécessaire
314 48 Fabien ADAM
315 48 Fabien ADAM
+Partie 2+ : modification du cluster Ceph
316 48 Fabien ADAM
317 48 Fabien ADAM
Cette partie peut se faire à distance tranquillement.
318 48 Fabien ADAM
319 48 Fabien ADAM
+Important+ : prévoir de faire d'abord _toutes les opérations sur les SSD_, puis ensuite _toutes les opérations sur les HDD_. L'intérêt est de réduire la RAM (et le CPU) utilisé par les OSD pendant la récupération, qui peut ralentir fortement le fonctionnement du cluster Ceph, et donc des VM qui l'exploite, avec des load qui explosent
320 48 Fabien ADAM
321 48 Fabien ADAM
# Bloquer les opérations de réparation (cf paragraphe dédié)
322 48 Fabien ADAM
# Supprimer les OSD correspondants aux anciens disques, sur chaque machine concernée
323 48 Fabien ADAM
## Repérer les OSD down dans @ceph osd tree@
324 48 Fabien ADAM
## Copier-coller la fonction _remove_osd_ (cf paragraphe dédié), et l'appeler
325 48 Fabien ADAM
# Ajouter les nouveaux OSD, sur chaque machine concernée
326 48 Fabien ADAM
## Repérer les disques inutilisé dans @lsblk -S@
327 48 Fabien ADAM
## Copier-coller la fonction _add_osd_ (cf paragraphe dédié), et l'appeler
328 48 Fabien ADAM
## Ajouter un poids à chaque nouvel OSD, correspondant à la taille du disque en To (exemple : @ceph osd crush reweight osd.21 0.5@)
329 48 Fabien ADAM
# Une fois tous les OSD d'un type ajouté, débloquer les opérations de réparation, en utilisant la commande _unset_ à la place de _set_
330 48 Fabien ADAM
# Suivre l'avancement, avec le pourcentage d'_objects misplaced_ qui va progressivement revenir à 0 : @ceph -s@
331 48 Fabien ADAM
332 48 Fabien ADAM
Une fois que le cluster est rétabli pour un type de disque, faire de même avec l'autre type.
333 48 Fabien ADAM
334 28 Laurent GUERBY
h2. inconsistent pg
335 28 Laurent GUERBY
336 32 Laurent GUERBY
* Analyse d'une erreur de coherence detectee par ceph
337 32 Laurent GUERBY
** https://lists.tetaneutral.net/pipermail/technique/2017-August/002859.html
338 32 Laurent GUERBY
339 28 Laurent GUERBY
<pre>
340 28 Laurent GUERBY
root@g1:~# ceph health detail
341 28 Laurent GUERBY
HEALTH_ERR 1 pgs inconsistent; 2 scrub errors
342 28 Laurent GUERBY
pg 58.22d is active+clean+inconsistent, acting [9,47,37]
343 28 Laurent GUERBY
2 scrub errors
344 28 Laurent GUERBY
root@g1:~# rados list-inconsistent-obj 58.22d  --format=json-pretty
345 28 Laurent GUERBY
{
346 28 Laurent GUERBY
    "epoch": 269000,
347 28 Laurent GUERBY
    "inconsistents": [
348 28 Laurent GUERBY
        {
349 28 Laurent GUERBY
            "object": {
350 28 Laurent GUERBY
                "name": "rbd_data.11f20f75aac8266.00000000000f79f9",
351 28 Laurent GUERBY
                "nspace": "",
352 28 Laurent GUERBY
                "locator": "",
353 28 Laurent GUERBY
                "snap": "head",
354 28 Laurent GUERBY
                "version": 9894452
355 28 Laurent GUERBY
            },
356 28 Laurent GUERBY
            "errors": [
357 28 Laurent GUERBY
                "data_digest_mismatch"
358 28 Laurent GUERBY
            ],
359 28 Laurent GUERBY
            "union_shard_errors": [
360 28 Laurent GUERBY
                "data_digest_mismatch_oi"
361 28 Laurent GUERBY
            ],
362 31 Laurent GUERBY
            "selected_object_info": 
363 31 Laurent GUERBY
"58:b453643a:::rbd_data.11f20f75aac8266.00000000000f79f9:head(261163'9281748 osd.9.0:6221608 dirty|data_digest|omap_digest s 4194304 uv 9894452 dd 2193d055 od ffffffff alloc_hint [0 0])",
364 28 Laurent GUERBY
            "shards": [
365 28 Laurent GUERBY
                {
366 28 Laurent GUERBY
                    "osd": 9,
367 28 Laurent GUERBY
                    "errors": [],
368 28 Laurent GUERBY
                    "size": 4194304,
369 28 Laurent GUERBY
                    "omap_digest": "0xffffffff",
370 28 Laurent GUERBY
                    "data_digest": "0x2193d055"
371 28 Laurent GUERBY
                },
372 28 Laurent GUERBY
                {
373 28 Laurent GUERBY
                    "osd": 37,
374 28 Laurent GUERBY
                    "errors": [
375 28 Laurent GUERBY
                        "data_digest_mismatch_oi"
376 28 Laurent GUERBY
                    ],
377 28 Laurent GUERBY
                    "size": 4194304,
378 28 Laurent GUERBY
                    "omap_digest": "0xffffffff",
379 28 Laurent GUERBY
                    "data_digest": "0x05891fb4"
380 28 Laurent GUERBY
                },
381 28 Laurent GUERBY
                {
382 28 Laurent GUERBY
                    "osd": 47,
383 28 Laurent GUERBY
                    "errors": [],
384 28 Laurent GUERBY
                    "size": 4194304,
385 28 Laurent GUERBY
                    "omap_digest": "0xffffffff",
386 28 Laurent GUERBY
                    "data_digest": "0x2193d055"
387 28 Laurent GUERBY
                }
388 28 Laurent GUERBY
            ]
389 28 Laurent GUERBY
        }
390 28 Laurent GUERBY
    ]
391 28 Laurent GUERBY
}
392 29 Laurent GUERBY
root@g1:~# ceph osd map disks rbd_data.11f20f75aac8266.00000000000f79f9
393 29 Laurent GUERBY
osdmap e269110 pool 'disks' (58) object 'rbd_data.11f20f75aac8266.00000000000f79f9' -> pg 58.5c26ca2d (58.22d) -> up ([9,47,37], p9) acting ([9,47,37], p9)
394 29 Laurent GUERBY
395 30 Laurent GUERBY
396 30 Laurent GUERBY
root@g8:/var/lib/ceph/osd/ceph-9/current/58.22d_head# find . -name '*11f20f75aac8266.00000000000f79f9*'
397 30 Laurent GUERBY
./DIR_D/DIR_2/DIR_A/DIR_C/rbd\udata.11f20f75aac8266.00000000000f79f9__head_5C26CA2D__3a
398 30 Laurent GUERBY
399 30 Laurent GUERBY
root@g10:/var/lib/ceph/osd/ceph-37/current/58.22d_head# find . -name '*11f20f75aac8266.00000000000f79f9*'
400 30 Laurent GUERBY
./DIR_D/DIR_2/DIR_A/DIR_C/rbd\udata.11f20f75aac8266.00000000000f79f9__head_5C26CA2D__3a
401 30 Laurent GUERBY
402 30 Laurent GUERBY
$ scp g8:/var/lib/ceph/osd/ceph-9/current/58.22d_head/DIR_D/DIR_2/DIR_A/DIR_C/rbd*data.11f20f75aac8266.00000000000f79f9__head_5C26CA2D__3a g8data
403 30 Laurent GUERBY
$ scp g10:/var/lib/ceph/osd/ceph-37/current/58.22d_head/DIR_D/DIR_2/DIR_A/DIR_C/rbd*data.11f20f75aac8266.00000000000f79f9__head_5C26CA2D__3a g10data
404 30 Laurent GUERBY
405 30 Laurent GUERBY
$ md5sum *
406 30 Laurent GUERBY
bd85c0ef1f30829ce07e5f9152ac2d2f  g10data
407 30 Laurent GUERBY
4297d0bc373e6603e0ad842702e0ecaa  g8data
408 30 Laurent GUERBY
$ $ diff -u <(od -x g10data) <(od -x g8data)
409 30 Laurent GUERBY
--- /dev/fd/63	2017-08-13 10:43:52.837097740 +0200
410 30 Laurent GUERBY
+++ /dev/fd/62	2017-08-13 10:43:52.833097808 +0200
411 30 Laurent GUERBY
@@ -2617,7 +2617,7 @@
412 30 Laurent GUERBY
 0121600 439b 14f4 bb4c 5f14 6ff7 4393 9ff8 a9a9
413 30 Laurent GUERBY
 0121620 29a8 56a4 1133 b6a8 2206 4821 2f42 4b2c
414 30 Laurent GUERBY
 0121640 3d86 41a2 785f 9785 8b48 4243 e7b9 f0aa
415 30 Laurent GUERBY
-0121660 29b6 be0c 0455 bf97 1c0d 49e5 75dd e1ed
416 30 Laurent GUERBY
+0121660 29a6 be0c 0455 bf97 1c0d 49e5 75dd e1ed
417 30 Laurent GUERBY
 0121700 2519 d6ac 1047 1111 0344 38be 27a1 db07
418 30 Laurent GUERBY
 0121720 dff6 c002 75d8 4396 6154 eba9 3abd 5d20
419 30 Laurent GUERBY
 0121740 8ae4 e63a 298b d754 0208 9705 1bb8 3685
420 30 Laurent GUERBY
</pre>
421 30 Laurent GUERBY
422 30 Laurent GUERBY
Donc un seul bit flip 29b6 vs 29a6  
423 30 Laurent GUERBY
424 30 Laurent GUERBY
<pre>
425 30 Laurent GUERBY
>>> bin(0xa)
426 30 Laurent GUERBY
'0b1010'
427 30 Laurent GUERBY
>>> bin(0xb)
428 30 Laurent GUERBY
'0b1011'
429 28 Laurent GUERBY
</pre>
430 29 Laurent GUERBY
431 29 Laurent GUERBY
* http://cephnotes.ksperis.com/blog/2013/08/20/ceph-osd-where-is-my-data
432 33 Laurent GUERBY
* https://superuser.com/questions/969889/what-is-the-granularity-of-a-hard-disk-ure-unrecoverable-read-error