Sun Solaris, SunOS

ntfs non-global zónába

Sziasztok!

A kiindulás a benelix féle NTFS mount lehetőség:
http://www.belenix.org/binfiles/FSWpart.tar.gz
http://www.belenix.org/binfiles/FSWfsmisc.tar.gz

global zónában minden további nélkül működik:
# mount -F ntfs -o ro /dev/dsk/c2t0d0p0 /ntfs
# mount |grep ntfs
/ntfs on 127.0.0.1:/ remote/read only/setuid/devices/port=32776/public/vers=2/proto=udp/xattr/dev=4800001 on Mon Sep 22 16:45:32 2008

de non-global-hoz nem tudom mountolni
- globálból közvetlenül non-global alá:
# zoneadm -z meta boot
zoneadm: zone 'meta': These file-systems are mounted on subdirectories of /storage/Zones/meta/root:
zoneadm: zone 'meta': /storage/Zones/meta/root/ntfs
zoneadm: zone 'meta': call to zoneadmd failed

- fs resource-ként:
fs:
dir: /ntfs
special: /dev/dsk/c2t0d0p0
raw: /dev/rdsk/c2t0d0p0
type: ntfs
options: []

# zoneadm -z meta verify
cannot verify fs /ntfs: 'raw' device specified but no fsck executable exists for ntfs
zoneadm: zone meta failed to verify

- fs resourceként lofs-el:
fs:
dir: /ntfs
special: /ntfs
raw not specified
type: lofs
options: [ro]
# zoneadm -z meta verify
cannot verify fs /ntfs: NFS mounted file-system.
A local file-system must be used.
zoneadm: zone meta failed to verify

- device mapping-el:
device
match: /dev/dsk/c2*
device
match: /dev/rdsk/c2*
...de nincs ilyen dev a zónában.

Valakinek valami ötlete?
Esetleg VMWARE host-ról (winxp) mountolni sol10 guest non-global zónájába.

Üdv, KJ.

Solaris 9, Veritas Netbackup 6.0 MP6 és SL 3000 probléma

Üdvözletem,

Tesztelnem kellene két darab SL3000 library -t. Egy SF240 -re van rákötve FC -n keresztül. Az operációs rendszer alól remekül látszanak a robotok és a 5-5db drive is.


# tpconfig -l
Device Robot Drive       Robot                    Drive                 Device         Second
Type     Num Index  Type DrNum Status  Comment    Name                  Path           Device Path
robot      0    -    TLD    -       -  -          -                     /dev/sg/c0tw500104f000acf568l0
  drive    -    1 hcart3    3      UP  -          HP.ULTRIUM3-SCSI.000  /dev/rmt/5cbn
  drive    -    9  hcart    6      UP  -          HP.ULTRIUM4-SCSI.003  /dev/rmt/9cbn
robot      1    -    TLD    -       -  -          -                     /dev/sg/c0tw500104f000ace048l0
drive      -    0  hcart    -  DISABL  -          HP.ULTRIUM4-SCSI.000  /dev/rmt/8cbn
drive      -    2 hcart3    -  DISABL  -          HP.ULTRIUM3-SCSI.001  /dev/rmt/6cbn
drive      -    3 hcart3    -  DISABL  -          HP.ULTRIUM3-SCSI.002  /dev/rmt/7cbn
drive      -    4  hcart    -  DISABL  -          HP.ULTRIUM4-SCSI.001  /dev/rmt/0cbn
drive      -    5  hcart    -  DISABL  -          HP.ULTRIUM4-SCSI.002  /dev/rmt/1cbn
drive      -    6 hcart3    -  DISABL  -          HP.ULTRIUM3-SCSI.003  /dev/rmt/2cbn
drive      -    7 hcart3    -  DISABL  -          HP.ULTRIUM3-SCSI.004  /dev/rmt/3cbn
drive      -    8 hcart3    -  DISABL  -          HP.ULTRIUM3-SCSI.005  /dev/rmt/4cbn

Ebből látszik, hogy netbackup alatt felvettem mind a két robotot és a 5-5 drive -ot. Az első robothoz hozzá is rendeltem tpconfig -al két drive -ot. Fizikailag is ellenőrizem, hogy megfelelő legyen a Robot DrNum is. Ellenben ezt a hibaüzenetet kapom:


tldcd[3029]: TLD(0) Library communications established, but no drives in library
tldd[3006]: TLD(0) unavailable: initialization failed: Unable to initialize robot

Az mt látja szépen a drive -okat, tar -al tudok rájuk menteni, szóval OS alatt működnek rendesen, csak ez a szerencsétlen netbackup azt mondja, hogy nincs egy darab drive sem a library -ban. Találkozott már valaki hasonlóval? Esetleg ötlet, hogy merre keressem a hibát? Előre is köszönöm.

Hálókártya életre keltése Solaris 10-en

Üdv,

SunFire V445 Solaris 10-el. Van benne az alaplapi hálókártya és két darab PCI-os, tehát összesen 12 darab hálózati interface-nek kéne lennie. Az alaplapi kártyával nincs semmi baj, de a külsők mintha nem is léteznének. Nem tudom őket ifconfig -a plumb-al aktiválni. Az egyetlen parancs, ami bármi jelet ad a létezésükről:

# prtdiag | grep network
pci 199 MB pci14e4,1668 (network)
okay /pci@1e,600000/pci@0/pci@1/pci@0/network@4
pci 199 MB pci14e4,1668 (network)
okay /pci@1e,600000/pci@0/pci@1/pci@0/network@4,1
pci 199 MB pci14e4,1668 (network)
okay /pci@1f,700000/pci@0/pci@2/pci@0/network@4
pci 199 MB pci14e4,1668 (network)
okay /pci@1f,700000/pci@0/pci@2/pci@0/network@4,1
pciex 199 MB/PCI0 network (network) SUNW,pcie-qgc
okay /pci@1e,600000/pci@0/pci@8/network
pciex 199 MB/PCI0 network (network) SUNW,pcie-qgc
okay /pci@1e,600000/pci@0/pci@8/network
pciex 199 MB/PCI0 network (network) SUNW,pcie-qgc
okay /pci@1e,600000/pci@0/pci@8/network
pciex 199 MB/PCI0 network (network) SUNW,pcie-qgc
okay /pci@1e,600000/pci@0/pci@8/network
pciex 199 MB/PCI1 network (network) SUNW,pcie-qgc
okay /pci@1f,700000/pci@0/pci@8/network
pciex 199 MB/PCI1 network (network) SUNW,pcie-qgc
okay /pci@1f,700000/pci@0/pci@8/network
pciex 199 MB/PCI1 network (network) SUNW,pcie-qgc
okay /pci@1f,700000/pci@0/pci@8/network
pciex 199 MB/PCI1 network (network) SUNW,pcie-qgc
okay /pci@1f,700000/pci@0/pci@8/network

Nekem az a gyanúm, hogy aki berakta a kártyákat, nem installálta fel hozzájuk a drivert. Én nem tudom, milyen driver kell hozzájuk, mert nem tudom, milyen a hálókártya tipusa pontosan. Ebből az outputból meg lehet mondani, hogy van-e driver felrakva? Van valami ötletetek, hogy mit kéne csinálni? Már kértem a főnököt, hogy keritse elő azt az embert, aki a hardvert telepitette, de itt nagyon lassan történnek a dolgok..

Kösz előre is :)

loop limit

Szervusztok!

Van egy olyan problémám, hogy nem tudok felcsatolni file-ba írt filerendszereket mert elfogyott a loop device. Próbáltam megoldást keresni de csak Linuxosokat találtam. Ott egy egyszerű modprobe paraméterrel meg lehet adni, hogy mennyi loop eszköz jöhet létre. Solaris alatt hogyan megy ez?

command:
mount -o loop /var/owr_userfiles/balazsa /var/nfs/ftp/balazsa

stderr:
mount: could not find any free loop device

Válaszokat előre nagyon köszönöm!

--
sirkalmi

RRDTools és Munin

Sziasztok,

átraknám a Etch alatti munin servert solaris 10 -re, a munin szépen fel is ment, de a munin-cron ezt generálja:

Can't locate loadable object for module RRDs in @INC (@INC contains: /usr/perl5/5.8.4/lib/sun4-solaris-64int /usr/perl5/5.8.4/lib /usr/perl5/site_perl/5.8.4/sun4-solaris-64int /usr/perl5/site_perl/5.8.4 /usr/perl5/site_perl /usr/perl5/vendor_perl/5.8.4/sun4-solaris-64int /usr/perl5/vendor_perl/5.8.4 /usr/perl5/vendor_perl .) at /usr/perl5/site_perl/5.8.4/Munin.pm line 56
Compilation failed in require at /usr/perl5/site_perl/5.8.4/Munin.pm line 56.
BEGIN failed--compilation aborted at /usr/perl5/site_perl/5.8.4/Munin.pm line 56.
Compilation failed in require at /opt/munin/lib/munin-update line 28.
BEGIN failed--compilation aborted at /opt/munin/lib/munin-update line 28.
Can't locate loadable object for module RRDs in @INC (@INC contains: /usr/perl5/5.8.4/lib/sun4-solaris-64int /usr/perl5/5.8.4/lib /usr/perl5/site_perl/5.8.4/sun4-solaris-64int /usr/perl5/site_perl/5.8.4 /usr/perl5/site_perl /usr/perl5/vendor_perl/5.8.4/sun4-solaris-64int /usr/perl5/vendor_perl/5.8.4 /usr/perl5/vendor_perl .) at /usr/perl5/site_perl/5.8.4/Munin.pm line 56
Compilation failed in require at /usr/perl5/site_perl/5.8.4/Munin.pm line 56.
BEGIN failed--compilation aborted at /usr/perl5/site_perl/5.8.4/Munin.pm line 56.
Compilation failed in require at /opt/munin/lib/munin-limits line 21.
BEGIN failed--compilation aborted at /opt/munin/lib/munin-limits line 21.
Can't locate loadable object for module RRDs in @INC (@INC contains: /usr/perl5/5.8.4/lib/sun4-solaris-64int /usr/perl5/5.8.4/lib /usr/perl5/site_perl/5.8.4/sun4-solaris-64int /usr/perl5/site_perl/5.8.4 /usr/perl5/site_perl /usr/perl5/vendor_perl/5.8.4/sun4-solaris-64int /usr/perl5/vendor_perl/5.8.4 /usr/perl5/vendor_perl .) at /opt/munin/lib/munin-graph line 27
Compilation failed in require at /opt/munin/lib/munin-graph line 27.
BEGIN failed--compilation aborted at /opt/munin/lib/munin-graph line 27.
Can't locate loadable object for module RRDs in @INC (@INC contains: /usr/perl5/5.8.4/lib/sun4-solaris-64int /usr/perl5/5.8.4/lib /usr/perl5/site_perl/5.8.4/sun4-solaris-64int /usr/perl5/site_perl/5.8.4 /usr/perl5/site_perl /usr/perl5/vendor_perl/5.8.4/sun4-solaris-64int /usr/perl5/vendor_perl/5.8.4 /usr/perl5/vendor_perl .) at /usr/perl5/site_perl/5.8.4/Munin.pm line 56
Compilation failed in require at /usr/perl5/site_perl/5.8.4/Munin.pm line 56.
BEGIN failed--compilation aborted at /usr/perl5/site_perl/5.8.4/Munin.pm line 56.
Compilation failed in require at /opt/munin/lib/munin-html line 28.
BEGIN failed--compilation aborted at /opt/munin/lib/munin-html line 28.

Az rrdtools volt fent csomagból is (sunfreeware) forgattam is, de eredmény google után sincs, ezért itt kérek ötleteket, mi lehet a baja?! ja, új perlt is raktam fel, de akkor sem ment vele:-(

Köszi

http://osdir.com/ml/db.rddtool.munin.general/2007-08/msg00042.html

Driver hozzáadása a network boot image -hez (sparc)

Üdvözletem,

Van egy jumpstart szerver, amin szépen ki is van alakítva egy gép profile -ja. A telepíteni kívánt gép (M4000) két domainra van osztva. Mindegyik domainhoz tartozik egy quad gigabit ethernet kártya, amihez nxge driver kellene. Ez nincs benne a jumpstart install image -ben. Sok leírést találtam arról, hogy x86 alatt hogyan lehet drivert hozzáadni a miniroot -hoz, de az sparc esetén nem játszik. Van erre megoldás? Az alaplapi bge interface -eker nem lehet hozzárendeli a 2. domainhez, mert arra rátelepszik az első domain, ezért csak az nxge -s kártyáról lehet bootolni. Hálás lennék egy linkért :)

partíciók kialakítása

Sziasztok!

Egy x86-os gépen szeretnék kialakítani egy NAS szervert, amelyen két HDD-n tárolódnának az adatok RAID1-ben (mirror). Ezt zfs filerendszerrel szeretném megoldani szoftveresen. A telepítés során a rendszernek kialakítottam egy 10gb-os partíciót, amelyen létrehozott rpool-t. A telepítést követően kialakítottam fdisk-kel egy második partíciót (solaris2) is a rendszer HDD-n (c0d0), amelyet egybe szeretnék kötni (raid1) a másik HDD-vel (c0d1). Viszont a format->partition-nal nem tudok slice-t kialakítani a második partíción, mert csak az első partíciót lehet vele menedzselni.

Miként tudom megoldani a fenti problémát? Vagy lehet, hogy nem is így kellene hozzáfogni? Már vagy 4 napom ráment, pedig csak egy egyszerű NAS szervert szeretnék összedobni :S

A segítséget előre is köszönöm!

Solaris install gond

Sziasztok,

Egy régi Ultra 5 re szerettem volna Solarist 9 et tenni, de amint végigment az install beállítási folyamat és elkezdődne maga az installácio a create disk label (VTOC); create and check UFS file system; create / (c0t0d0s0).. után a következő hibaüzenet jön:

ERROR: File system creation failed for / (c0t0d0s0)

ERROR: Could not check or create system critical file systems

ERROR: Could not update disks with new configuration
Could not update disks with new configuration

Tudnátok segíteni mi lehet a gond illetve hogyan lehetne javítani ???

előre is köszönöm

Üdv,
edemko