First Alternative-Solaris 10 ZFS migration from UFS Example
vraag
Hoe kan ik mijn Solaris 10 (Update 6, 10/08 en later) systeem migreren naar een ZFS-gebaseerd root bestandssysteem?
antwoord
voordat u dit leest, kijk eens naar deze pagina als u niet zeker bent over het opzetten van een ZFS-pool.
dit is een kort voorbeeld van het migreren van een bestaand op UFS gebaseerd Solaris 10 systeem om een ZFS opslag
pool te gebruiken voor zijn root, swap en dump gebieden.
dit wordt alleen ondersteund in Solaris 10 Update 6 (10/08) verder.
deze procedure toont het migratieproces met behulp van Live Upgrade, en is een van de zes live Upgrade scenario ‘ s uit onze Solaris Live Upgrade Workshop eendaagse cursus.
de voorbereiding voor het uitvoeren van een Live-Upgrade omvat de installatie van specifieke patches en de juiste Live-upgradesoftware, plus de beschikbaarheid van schijfopslag. Zie de volgende link voor details:-
https://docs.oracle.com/cd/E26505_01/html/E28038/preconfig-17.html
migreren naar ZFS heeft verschillende voordelen, waaronder:-
- met behulp van geavanceerde ZFS-faciliteiten, met bijbehorende prestaties en veerkracht.
- slechts één pool te onderhouden, met eenvoudig beheer en eenvoudige vervanging van schijven (in een gespiegelde pool) met grotere schijven als meer capaciteit nodig is.
- nieuwe Bootomgevingen (BE ‘ s) worden gemaakt met behulp van snapshot-klonen van het ZFS-bestandssysteem, en worden vrijwel direct aangemaakt; deze kunnen dan worden opgewaardeerd, gepatcht en gewijzigd (het toevoegen van verwijderingspakketten, enz.) en vervolgens worden geactiveerd en opgestart van, om het over te nemen van de momenteel draaiende BE.
maak om te beginnen een pool aan op uw reserveschijf(en), bij voorkeur een spiegelserver.
de pool moet gemaakt worden van slices op schijven met een smi-schijflabel, in plaats van hele schijven, om bootbaar en upgradebaar te zijn, en je moet alleen slices of mirrors gebruiken, en niet RAIDZ. (een eigenschap van ZFS die ruwweg gelijk is aan RAID 5)
een ZFS root bestandssysteem is groter dan een UFS root bestandssysteem omdat swap en dump apparaten afzonderlijke apparaten moeten zijn, terwijl swap en dump apparaten hetzelfde apparaat zijn in een UFS root bestandssysteem.
# zpool create-f prawn_root_t2 mirror c0t2d0s0 c0t3d0s0
# zpool status
.. hier wordt informatie weergegeven over de ZFS-pools.
gebruik nu lucreate om een nieuwe BE aan te maken in de ZFS-pool:-
# lucreate-n prawn_zfs_root-p prawn_root_t2
systeemconfiguratie analyseren.
het vergelijken van de bron boot omgeving <c0t0d0s0> bestandssystemen met het bestand
systeem(en) die u hebt opgegeven voor de nieuwe boot omgeving. Bepalen welke
bestandssystemen zich in de nieuwe boot omgeving moeten bevinden.
boot environment description database bijwerken op alle BEs.
Systeemconfiguratiebestanden bijwerken.
het apparaat < / dev/dsk / c0t2d0s0> is geen root-apparaat voor een bootomgeving; kan geen BE ID krijgen.
configuratie aanmaken voor opstartomgeving <prawn_zfs_root>.
bron boot omgeving is <c0t0d0s0>.
Bootomgeving aanmaken <prawn_zfs_root>.
bestandssystemen aanmaken op bootomgeving <prawn_zfs_root>.
aanmaken van <zfs> bestandssysteem voor < / > in zone <globaal> op <prawn_root_t2 / ROOT / prawn_zfs_root>.
bestandssystemen vullen in bootomgeving <prawn_zfs_root>.
controle van de integriteit van de selectie.
integriteitscontrole OK.
Vulinhoud van koppelpunt < / >.
kopiëren.
gedeelde bestandssysteem koppelpunten maken.
compare databases aanmaken voor boot environment <prawn_zfs_root>.
vergelijkingsdatabase aanmaken voor bestandssysteem < / usr>.
vergelijkingsdatabase aanmaken voor bestandssysteem < / prawn_root_t2 / ROOT>.
vergelijkingsdatabase aanmaken voor bestandssysteem < / opt>.
vergelijkingsdatabase aanmaken voor bestandssysteem < / >.
bijwerken vergelijk databases op boot omgeving <prawn_zfs_root>.
Bootomgeving<prawn_zfs_root > opstartbaar maken.
boot_archive aanmaken voor /.alt.tmp.b-4Gc.mnt
bijwerken /.alt.tmp.b-4Gc.mnt/platform/sun4u / boot_archive
populatie van boot-omgeving <prawn_zfs_root> succesvol.
aanmaken van boot environment<prawn_zfs_root > succesvol.
#
(duurt ongeveer 30-40 minuten.)
merk op dat data slices die losstaan van die welke het Solaris OS bevatten, niet gemigreerd zullen worden (noch kunnen ze gemigreerd worden, in tegenstelling tot BE ‘ s die op UFS bestandssystemen zitten); dergelijke slices zullen aangekoppeld worden op hun oorspronkelijke koppelpunten wanneer de nieuwe BE wordt opgestart.
# lufslist prawn_zfs_root
.. toont informatie over het bestandssysteem voor de nieuwe BE
# lustatus
.. toont algemene BE-informatie
u kunt nu luupgrade of smpatch gebruiken (smpatch heeft momenteel problemen…) om de nieuwe (ZFS-gebaseerde) BE te patchen voordat deze wordt geactiveerd.
als het origineel (UFS) niet-globale zones bevat in de systeemschijven, zullen ze worden gekopieerd met de lucreate.
als ze bestaan in een niet-systeem slice, zoals / zones gemonteerd op een aparte slice, dan zullen ze behandeld worden als een gedeelde slice, op dezelfde manier als een /export/home slice zoals hierboven beschreven.
Als u naar de toekomst kijkt, kunt u de nieuwe BE upgraden voordat u deze opstart:-
# luupgrade-n prawn_zfs_root-u-s /net/yamaha/software/sol10_u8
waarbij /net/yamaha/software/sol10_u8 het pad is naar een geldig Solaris 10-distributiebeeld. (Denkbeeldig in Maart 2009!)
nu het nieuwe ZFS BE is aangemaakt, kunnen we het activeren en er vervolgens van opstarten: –
# luactivate prawn_zfs_root
een live Upgrade Sync operatie zal worden uitgevoerd bij het opstarten van de boot omgeving <p rawn_zfs_root>.
******************************************************************
de doel boot omgeving is geactiveerd. Het zal gebruikt worden wanneer u
herstart. Opmerking: U mag de commando ‘ s reboot, halt of uadmin niet gebruiken. U
moet het init-of het shutdown-commando gebruiken wanneer u herstart. Als u
geen gebruik maakt van init of shutdown, zal het systeem niet opstarten met het
doel BE.
******************************************************************
In het geval van een fout tijdens het opstarten naar het doel BE, moet het volgende proces
worden gevolgd om terug te vallen naar de momenteel werkende opstartomgeving:
1. Voer de PROM monitor (OK prompt).
2. Verander het opstartapparaat terug naar de oorspronkelijke opstartomgeving door te typen:
setenv boot-device / pci@1f, 0 / IDE@d/disk@0,0: a
3. Opstart naar de oorspronkelijke opstartomgeving door te typen:
opstarten
******************************************************************
aanpassen van boot archive service
activering van boot environment <prawn_zfs_root> succesvol.
u kunt nu herstarten, maar zie de uitvoer hierboven van luactivate op welke commando ‘ s u moet gebruiken.
# init 6
wanneer de nieuwe ZFS root pool BE wordt opgestart en uitgevoerd, kunnen we onze volgende stappen overwegen.
mogelijk willen we de oorspronkelijke BE behouden in geval van problemen.
kijk eens rond om te zien hoe het systeem eruit ziet met verschillende commando ’s – Je zult niet veel verschil merken, behalve met commando’ s zoals df.
ook is het belangrijk om kennis te hebben van ZFS zpool en zfs commando ‘ s om de bestandssystemen en pool te onderhouden; dergelijke onderwerpen worden behandeld in zowel onze Solaris 10 Systeembeheer deel 2, als Solaris 10 Update Workshop cursussen.
merk op dat partities die gebruikersgegevens bevatten, zoals /export/home, niet in de BE zijn opgenomen, maar hun originele partities en koppelpunten behouden.
u kunt deze ook ZFS migreren, misschien in een aparte pool.
het is mogelijk om dergelijke dingen binnen de bestaande pool te plaatsen, maar dit zou ze deel maken van elke nieuwe gekloonde BE ‘ s, met mogelijke complicaties als gevolg.
nu kunnen we een verdere BE heel snel maken, die vervolgens kan worden gepatcht of opgewaardeerd zoals vereist.
om een nieuwe BE te maken van onze ZFS BE: –
# lucreate-n prawn_root_t2_jan_31
systeemconfiguratie analyseren.
het vergelijken van de bron boot omgeving <prawn_zfs_root> bestandssystemen met het
bestandssysteem(en) dat u hebt opgegeven voor de nieuwe boot omgeving. Bepalen
welke bestandssystemen zich in de nieuwe boot omgeving moeten bevinden.
boot environment description database bijwerken op alle BEs.
Systeemconfiguratiebestanden bijwerken.
configuratie aanmaken voor opstartomgeving <prawn_root_t2_jan_31>.
bron boot omgeving is <prawn_zfs_root>.
Bootomgeving aanmaken <prawn_root_t2_jan_31>.
bestandssystemen klonen van boot environment <prawn_zfs_root> om boot environment <prawn_root_t2_jan_31>aan te maken.
snapshot aanmaken voor <prawn_root_t2/ROOT/prawn_zfs_root> op<prawn_root_t2/ROOT/prawn_zfs_root@prawn_root_t2_jan_31>.
kloon aanmaken voor <prawn_root_t2/ROOT / prawn_zfs_root@prawn_root_t2_jan_31> op <prawn_root_t2 / ROOT / prawn_t2_jan_31>.
instelling canmount=noauto voor</> in zone<globaal > op<prawn_root_t2/ROOT/prawn_root_t2_jan_31 >.
populatie van boot-omgeving <prawn_root_t2_jan_31> succesvol.
aanmaken van boot environment<prawn_root_t2_jan_31 > succesvol.
duurt ongeveer 30 seconden…..
# lustatus
een ZFS list commando laat zien dat de BE is aangemaakt als een kloon van een ZFS snapshot.
# ZFS list
het nieuwe BE kan nu worden gepatcht, nieuwe pakketten worden toegevoegd en worden geüpgraded..
voor meer informatie over ZFS, waarom niet onze 4-daagse Solaris 10 Update
cursus bijwonen, zie: https://www.firstalt.co.uk/courses/s10up.html
ZFS is ook opgenomen in onze standaard Solaris 10 systeem administratie cursussen.
voor alle details van Live Upgrade, kunt u onze Solaris Live Upgrade Workshop bijwonen, een eendaagse cursus die 6 verschillende Live Upgrade scenario ‘ s omvat, inclusief deze!
hoe stel ik een Zone in in Solaris 10?
antwoord
eerste alternatieve cursus docenten kunnen vragen als deze beantwoorden … en doen dat graag. Kijk rond op onze site voor relevante cursussen in Linux-Unix-Solaris
venster sluiten