Ich hatte einen ZFS-Pool - einen Spiegel mit 2 vdevs - auf einem FreeBSD-Server. Ich habe jetzt nur eine der Festplatten aus dem Spiegel und versuche, Dateien daraus wiederherzustellen.
Die ZFS-Daten befinden sich in einer GPT-Partition auf der Festplatte.
Wenn ich versuche, den Pool zu importieren, gibt es kein Anzeichen dafür, dass er überhaupt existiert. Ich habe verschiedene Ansätze ausprobiert, aber es passiert nichts.
Ich bin zdb -lu
auf der Partition gelaufen , und es scheint, dass die Beschriftungen in Ordnung sind.
# zpool import
# zpool import -D
# zpool status
no pools available
# zpool import -f ztmp
cannot import 'ztmp': no such pool available
# zpool import 16827460747202824739
cannot import '16827460747202824739': no such pool available
Partitionsinformationen:
# gpart list da0
Geom name: da0
modified: false
state: OK
fwheads: 255
fwsectors: 63
last: 3907029134
first: 34
entries: 128
scheme: GPT
Providers:
1. Name: da0p1
Mediasize: 65536 (64K)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 17408
Mode: r0w0e0
rawuuid: d7a10230-8b0e-11e1-b750-f46d04227f12
rawtype: 83bd6b9d-7f41-11dc-be0b-001560b84f0f
label: (null)
length: 65536
offset: 17408
type: freebsd-boot
index: 1
end: 161
start: 34
2. Name: da0p2
Mediasize: 17179869184 (16G)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 82944
Mode: r0w0e0
rawuuid: d7aa40b7-8b0e-11e1-b750-f46d04227f12
rawtype: 516e7cb5-6ecf-11d6-8ff8-00022d09712b
label: (null)
length: 17179869184
offset: 82944
type: freebsd-swap
index: 2
end: 33554593
start: 162
3. Name: da0p3
Mediasize: 1905891737600 (1.7T)
Sectorsize: 512
Stripesize: 0
Stripeoffset: 82944
Mode: r0w0e0
rawuuid: d7b6a47e-8b0e-11e1-b750-f46d04227f12
rawtype: 516e7cba-6ecf-11d6-8ff8-00022d09712b
label: (null)
length: 1905891737600
offset: 17179952128
type: freebsd-zfs
index: 3
end: 3755999393
start: 33554594
Consumers:
1. Name: da0
Mediasize: 2000398934016 (1.8T)
Sectorsize: 512
Mode: r0w0e0
ZFS-Label:
--------------------------------------------
LABEL 0
--------------------------------------------
version: 5000
name: 'ztmp'
state: 0
txg: 0
pool_guid: 16827460747202824739
hostid: 740296715
hostname: '#############'
top_guid: 15350190479074972289
guid: 3060075816835778669
vdev_children: 1
vdev_tree:
type: 'mirror'
id: 0
guid: 15350190479074972289
whole_disk: 0
metaslab_array: 30
metaslab_shift: 34
ashift: 9
asize: 1905887019008
is_log: 0
create_txg: 4
children[0]:
type: 'disk'
id: 0
guid: 3060075816835778669
path: '/dev/gptid/d7b6a47e-8b0e-11e1-b750-f46d04227f12'
phys_path: '/dev/gptid/d7b6a47e-8b0e-11e1-b750-f46d04227f12'
whole_disk: 1
DTL: 5511
resilvering: 1
children[1]:
type: 'disk'
id: 1
guid: 3324029433529063540
path: '/dev/gptid/396a2b11-cb16-11e1-83f4-f46d04227f12'
phys_path: '/dev/gptid/396a2b11-cb16-11e1-83f4-f46d04227f12'
whole_disk: 1
DTL: 3543
create_txg: 4
resilvering: 1
features_for_read:
create_txg: 0
Uberblock[0]
magic = 0000000000bab10c
version = 5000
txg = 0
guid_sum = 1668268329223536005
timestamp = 1361299185 UTC = Tue Feb 19 10:39:45 2013
(Andere Etiketten sind exakte Kopien)
In diesem alten Thread wird ein ähnlich klingendes Problem diskutiert . Ich habe versucht, Jeff Bonwicks labelfix
Tool auszuführen (mit Updates aus diesem Beitrag ), aber es schien das Problem nicht zu lösen.
Irgendwelche Ideen?
quelle
-d
und-D
Optionen versucht, ohne Erfolg.Antworten:
Zum späteren Nachschlagen hilft es normalerweise auch, einfach den zpool-Import -a durchzuführen (sucht nach allen), wenn ein zpool / zfs-fs nicht erkannt wird.
quelle
Aus dem Kommentar (aus dem Eröffnungsplakat):
quelle
Ich habe meine ZFS-Konfiguration irgendwie vermasselt. Leider kann ich mich nicht erinnern, was genau ich getan habe (ich habe einige Hardware geändert, damit ich es vermasselt habe; sei nicht wie ich!), Aber das hat bei mir funktioniert. Ich verwende XigmaNAS (nas4free) und alle folgenden Befehle werden über das Terminal ausgegeben.
Eine vage Erinnerung an das, was ich getan habe (und was nicht):
Symptome:
da1
. Dies sind genug Informationen, die ich brauche, bevor ich zum Terminal gehe.Im Terminal finden Sie einige versuchte Befehle und Ergebnisse.
zpool import -a
sagtno pool available to import
zpool status
sagtno pools available
(gebrochene Sprache? lol.)gpart list -a
zeigt nichtda1
gpart list da1
sagtgpart: no such geom: da1
zpool list
sagtno pools available
glabel list -a
zeigt keinen Pool inda1
zdb -l /dev/da1
kann die beiden Etiketten druckenda1
, sodass meine Festplatte nicht tot istzpool import -D
sagt, dass der Pool aufda1
zerstört ist und möglicherweise importiert werden kannLösung:
Run hat
zpool import -D -f (poolname)
das Problem behoben.quelle