Prima alternativă – Solaris 10 migrarea ZFS din exemplul UFS

întrebare

Cum pot migra sistemul meu Solaris 10 (Actualizați 6, 10/08 în continuare) către un sistem de fișiere rădăcină bazat pe ZFS?

răspuns
înainte de a citi acest lucru, aruncați o privire la această pagină dacă nu sunteți sigur de configurarea unui pool ZFS.
acesta este un scurt exemplu de migrare a unui sistem Solaris 10 bazat pe UFS existent pentru a utiliza un pool de stocare ZFS
pentru zonele sale root, swap și dump.
acest lucru este acceptat numai în Solaris 10 actualizare 6 (10/08) începând.
această procedură arată procesul de migrare folosind actualizarea Live și este unul dintre cele șase scenarii de actualizare Live preluate din cursul nostru de o zi Solaris Live Upgrade Workshop.
rețineți că pregătirea pentru efectuarea unei actualizări Live include instalarea de patch-uri specifice și software-ul corect de actualizare Live, plus disponibilitatea stocării pe disc. Consultați următorul link pentru detalii:-
https://docs.oracle.com/cd/E26505_01/html/E28038/preconfig-17.html
migrarea la ZFS are mai multe beneficii, inclusiv:-

  • folosind facilități avansate ZFS, cu performanță însoțitor și reziliență.
  • un singur bazin de întreținut, cu administrare simplă și înlocuirea ușoară a discurilor (într-un bazin oglindit) cu discuri mai mari, dacă este necesară o capacitate mai mare.
  • noile medii de Boot (BE) sunt create folosind clone instantaneu ale sistemului de fișiere ZFS și sunt create aproape instantaneu; acestea pot fi apoi actualizate, patch-uri și modificate (adăugând eliminarea pachetelor etc.) și apoi activate și pornite de la, pentru a prelua de la Be care rulează în prezent.

pentru a începe, creați o piscină pe discul(discurile) de rezervă, de preferință o oglindă.
piscina trebuie să fie creată din felii pe discuri cu o etichetă de disc SMI, mai degrabă decât discuri întregi, pentru a fi bootabilă și actualizabilă și trebuie să utilizați numai felii sau oglinzi și nu RAIDZ. (o caracteristică a ZFS aproximativ echivalentă cu RAID 5)
un sistem de fișiere rădăcină ZFS este mai mare decât un sistem de fișiere rădăcină UFS, deoarece dispozitivele swap și dump trebuie să fie dispozitive separate, în timp ce dispozitivele swap și dump sunt același dispozitiv într-un sistem de fișiere rădăcină UFS.
# zpool crea-f prawn_root_t2 oglindă c0t2d0s0 c0t3d0s0
# zpool stare
.. afișează informații despre bazinele ZFS.
acum folosiți lucreate pentru a crea un nou BE pe piscina ZFS:-
# lucrate-n prawn_zfs_root-p prawn_root_t2
analizând configurația sistemului.
Compararea mediului de pornire sursă< c0t0d0s0>sisteme de fișiere cu sistemul(sistemele) de fișiere

specificat (e) pentru noul mediu de pornire. Determinarea care
sisteme de fișiere ar trebui să fie în noul mediu de boot.
actualizarea bazei de date descriere mediu de boot pe toate BEs.
actualizarea fișierelor de configurare a sistemului.
dispozitivul</dev/dsk/c0t2d0s0 > nu este un dispozitiv rădăcină pentru orice mediu de boot; nu poate fi ID.
crearea de configurare pentru mediul de boot <prawn_zfs_root>.
mediul de pornire sursă este <c0t0d0s0>.
crearea mediului de boot <prawn_zfs_root>.
crearea sistemelor de fișiere în mediul de boot <prawn_zfs_root>.
crearea< ZFS > sistem de fișiere pentru </>în zona < global>pe <prawn_root_t2/ROOT / prawn_zfs_root>.
popularea sistemelor de fișiere în mediul de pornire<prawn_zfs_root >.
verificarea integrității selecției.
verificarea integrității OK.
popularea conținutului punctului de montare</ >.
Copiere.
crearea punctelor de montare a sistemului de fișiere partajate.
crearea de baze de date compara pentru mediul de boot <prawn_zfs_root>.
crearea compara baza de date pentru sistemul de fișiere < / usr>.
crearea compara baza de date pentru sistemul de fișiere </prawn_root_t2/ROOT>.
crearea compara baza de date pentru sistemul de fișiere </opt>.
crearea compara baza de date pentru sistemul de fișiere < / >.
actualizarea compara baze de date pe mediul de boot<prawn_zfs_root >.
realizarea mediului de boot < prawn_zfs_root> bootabil.
crearea boot_archive pentru/.alt.tmp.b-4Gc.mnt
actualizarea /.alt.tmp.b-4Gc.mnt/platforma/sun4u / boot_archive
populația mediului de boot < prawn_zfs_root> de succes.
crearea de mediu de boot < prawn_zfs_root> de succes.
#
(durează aproximativ 30-40 de minute.)
rețineți că felii de date separate de cele care conțin Solaris OS o astfel de / export / home nu vor fi migrate (nici nu pot fi, spre deosebire de Be conținute pe sistemele de fișiere UFS); astfel de felii vor fi montate pe punctele lor de montare originale atunci când noul BE este pornit.
# lufslist prawn_zfs_root
.. afișează informații despre sistemul de fișiere pentru noul BE
# lustatus
.. afișează informații generale BE
acum Puteți utiliza luupgrade sau smpatch (smpatch are în prezent probleme…) pentru a patch-uri noi (bazate pe ZFS) să fie înainte de activarea acestuia.
dacă originalul (UFS) să fie conținute zone non-globale în felii de sistem, acestea vor fi copiate cu lucrreate.
dacă există într-o felie non-sistem, cum ar fi /zone montate pe o felie separată, atunci vor fi tratate ca o felie partajată, într-un mod similar cu o felie /export/home așa cum este descris mai sus.

privind spre viitor, când sunt disponibile versiuni suplimentare, puteți actualiza noul BE înainte de a-l porni:-
# luupgrade-n prawn_zfs_root-u-S /net/yamaha/software/sol10_u8
unde /net/yamaha/software/sol10_u8 este calea către o imagine de distribuție Solaris 10 validă. (Imaginar ca în martie 2009!)
acum că noul ZFS BE este creat, îl putem activa, apoi pornim de la acesta:-
# luactivate prawn_zfs_root
o operație de sincronizare Live Upgrade va fi efectuată la pornirea mediului de boot <p rawn_zfs_root>.
******************************************************************
mediul de pornire țintă a fost activat. Acesta va fi utilizat atunci când
reboot. Notă: nu trebuie să utilizați comenzile reboot, halt sau uadmin. Tu
trebuie să utilizați fie init sau comanda shutdown atunci când reporniți. Dacă
nu utilizați nici init, nici shutdown, sistemul nu va porni utilizând ținta
BE.
******************************************************************
în cazul unei defecțiuni în timpul pornirii la țintă BE, următorul proces
trebuie urmat pentru a reveni la mediul de pornire care funcționează în prezent:
1. Introduceți monitorul PROM (prompt ok).
2. Schimbați dispozitivul de pornire înapoi la mediul de pornire original tastând:
setenv boot-device / pci@1F, 0/ide@d / disc@0,0:a
3. Porniți în mediul de pornire original tastând:
Cizme
******************************************************************
modificarea serviciului de arhivă de pornire
activarea mediului de pornire<prawn_zfs_root > cu succes.
acum Puteți reporni, dar vedeți ieșirea de mai sus de la luactivate pe ce comenzi să utilizați.
# init 6
când noul ZFS root pool BE este pornit și rulează, putem lua în considerare următorii pași.
am putea dori să păstreze originalul fie în caz de probleme.
aruncați o privire în jur pentru a vedea cum arată sistemul cu diverse comenzi – nu veți observa prea multe diferențe, cu excepția comenzilor precum df.
de asemenea, este important să aveți cunoștințe despre comenzile ZFS zpool și zfs pentru a menține sistemele de fișiere și piscina; astfel de subiecte sunt acoperite atât pe Solaris 10 Systems Administration Part 2, cât și pe Solaris 10 Update Workshop cursuri.
rețineți cum partițiile care dețin date de utilizator, cum ar fi /export/home, nu sunt incluse în BE, dar își păstrează partițiile originale și punctele de montare.
s-ar putea dori să migreze aceste ZFS, de asemenea,, probabil, într-un bazin separat.
este posibil să plasăm astfel de lucruri în bazinul existent, dar acest lucru le-ar face parte din orice fi nou clonat, cu posibile complicații ca rezultat.
acum putem crea o fi în continuare foarte repede, care poate fi apoi patch-uri sau modernizate după cum este necesar.
pentru a crea un nou BE din ZFS-ul nostru BE:-
# lucrate-n prawn_root_t2_jan_31
analizând configurația sistemului.
Compararea mediului de pornire sursă< prawn_zfs_root>sisteme de fișiere cu
sisteme de fișiere pe care le-ați specificat pentru noul mediu de pornire. Determinarea
ce sisteme de fișiere ar trebui să fie în noul mediu de boot.
actualizarea bazei de date descriere mediu de boot pe toate BEs.
actualizarea fișierelor de configurare a sistemului.
crearea de configurare pentru mediul de boot <prawn_root_t2_jan_31>.
mediul de boot sursă este <prawn_zfs_root>.
crearea mediului de boot <prawn_root_t2_jan_31>.
clonarea sistemelor de fișiere din mediul de pornire< prawn_zfs_root >pentru a crea mediul de pornire<prawn_root_t2_jan_31 >.
crearea instantaneu pentru< prawn_root_t2/ROOT/prawn_zfs_root>pe<prawn_root_t2/ROOT/prawn_zfs_root@prawn_root_t2_jan_31 >.
crearea clona pentru< prawn_root_t2/ROOT/prawn_zfs_root@prawn_root_t2_jan_31 >pe<prawn_root_t2/ROOT/prawn_root_t2_jan_31 >.
Setare canmount = noauto pentru </> în zona <global> pe <prawn_root_t2/ROOT/prawn_root_t2_jan_31>.
populația mediului de boot< prawn_root_t2_jan_31 > de succes.
crearea mediului de boot< prawn_root_t2_jan_31 > de succes.
durează aproximativ 30 de secunde…..
# lustatus
o comandă de listă zfs va arăta că BE a fost creat ca o clonă a unui instantaneu ZFS.
# zfs list
noul BE poate fi acum patch-uri, au pachete noi adăugate și să fie modernizate..
pentru mai multe informații despre ZFS, de ce să nu participați la cursul nostru de 4 zile Solaris 10 Update
consultați: https://www.firstalt.co.uk/courses/s10up.html
ZFS este inclus și în cursurile noastre standard de administrare a sistemelor Solaris 10.
pentru detalii complete despre actualizarea Live, puteți participa la atelierul nostru de actualizare Solaris Live, un curs de o zi care acoperă 6 scenarii de actualizare live diferite, inclusiv acesta!

Cum configurez și configurez o zonă în Solaris 10?

răspuns

primul curs alternativ tutorii pot răspunde la întrebări de genul acesta … și sunt fericit să facă acest lucru. Uită-te în jurul site-ul nostru pentru cursuri relevante în Linux-Unix-Solaris

închide fereastra

Leave a Reply

Adresa ta de email nu va fi publicată.