Linux-haladó

[SOLVED]glusterfs "writeback" tiltás

Fórumok

Sziasztok,

van egy olyan problémám, hogy egy glusterfs volume -t ki szeretnék ajánlani több vm -nek.
A glusterfs serveren történik az írás, de sajnos mindenképpen szükséges a klienseken is írni; ennek viszont nem kellene/nem szabadna visszajutnia a szerverre. Konkrétan magukat a meglévő állományokat nem írják, viszont egy rakás egyéb más fájlt lérehoznak a vm -ek.
Tehát valami pseudo-readonly megvalósítást kellene találnom, ahol a gluster server update-jei megjelennek a vm -eken, fordítva nem.
Tuti van rá valami egyszerű megoldás, csak én nem találtam meg.
Van valakinek ebben valami tapasztalata, ötlete?

Köszi előre is!

Milyen Virtual SAN-t?

Fórumok

Hellósztok,

Mi a mostanában menő, bevált, stabil (elsősorban az utóbbiak fontosak) Virtual SAN, vagy másképp szoftveres hared storage?

Olyasmi kéne amit block storage-ként ki lehet ajánlani és stabilan megy, fő felhasználása virtualizációhoz lenne, Xen (itt pl. LVM group, ami minden hoston elérhető, egy-egy vmnek saját LVM volume van), Vmware (ingyenes, nem clusterbe, itt talán az ISCSI jöhet egyedül szóba), valamint docker, bár ehhez jó az object storage rész is.

Talán a ceph lenne jó? Viszont ennek a block storage részéről azt olvastam, hogy nem igazán annyira frankó még.

Vmware vsan-t használjuk VMware környezetben, ami nagyon jól megy, csak hát nem kicsit drága.

Méretileg kb ilyesmire gondoltam (a vSAN-nak), hogy 5 szerver, mondjuk szerverenként 12* SAS 1TB HDD-vel (ilyenkor a HDD-ket be kell tenni RAID-ba)?, 10G ethernet, pl.

5-ből 1 esetleg 2 storage szerver kiesést jó lenne ha elviselne adatvesztés nélkül (lassulás belefér), meg talán a deduplikáció ami jó lenne, de ez utóbbi nem követelmény.

Szóval kérlek adjatok ötleteket, milyen irányba lehet elindulni (fizetős szoftverek is jöhetnek, ha nem baromi drágák).

systemd + fstab NFS mount hostnev alapjan nem megy

Fórumok

Egy Arch Linux es egy OSMC (Debian) is csinalja nalam, hogy nem csatolja fel bootkor az fstabban megadott, amugy hazi FreeBSD szerverrol futo NFS-t hostnev alapjan:
Jun 19 21:50:57 apu systemd-networkd[256]: Enumeration completed
Jun 19 21:50:57 apu systemd[1]: Started Network Service.
Jun 19 21:50:57 apu systemd[1]: Reached target Network.
Jun 19 21:50:57 apu systemd-networkd[256]: enp4s0: Renamed to eth0
Jun 19 21:50:57 apu kernel: [drm] UVD initialized successfully.
Jun 19 21:50:57 apu systemd-networkd[256]: eth0: Renamed to enp4s0
Jun 19 21:50:57 apu systemd[1]: Starting Docker Application Container Engine...
Jun 19 21:50:57 apu systemd[1]: Reached target Network is Online.
Jun 19 21:50:57 apu systemd-networkd[256]: enp4s0: IPv6 enabled for interface: Success
Jun 19 21:50:57 apu systemd[1]: Mounting /mnt/media...
Jun 19 21:50:57 apu systemd[1]: Starting Network Name Resolution...
Jun 19 21:50:57 apu kernel: [drm] ib test on ring 0 succeeded in 0 usecs
Jun 19 21:50:57 apu kernel: [drm] ib test on ring 3 succeeded in 0 usecs
Jun 19 21:50:57 apu systemd-resolved[259]: Positive Trust Anchors:
Jun 19 21:50:57 apu systemd-resolved[259]: . IN DS 19036 8 2 49aac11d7b6f6446702e54a1607371607a1a41855200fd2ce1cdde32f24e8fb5
Jun 19 21:50:57 apu systemd-resolved[259]: Negative trust anchors: 10.in-addr.arpa 16.172.in-addr.arpa 17.172.in-addr.arpa 18.172.in-addr.arpa 19.172.in-addr.arpa 20.172.in-addr.arpa 21.172.in-addr.arpa 22.172
Jun 19 21:50:57 apu systemd-resolved[259]: Using system hostname 'apu'.
Jun 19 21:50:57 apu mount[258]: mount.nfs: Failed to resolve server gos.lan: Name or service not known
Jun 19 21:50:57 apu systemd[1]: mnt-media.mount: Mount process exited, code=exited status=32
Jun 19 21:50:57 apu systemd[1]: Failed to mount /mnt/media.
Jun 19 21:50:57 apu systemd[1]: Dependency failed for Remote File Systems.
Jun 19 21:50:57 apu systemd[1]: remote-fs.target: Job remote-fs.target/start failed with result 'dependency'.
Jun 19 21:50:57 apu systemd[1]: mnt-media.mount: Unit entered failed state.
Jun 19 21:50:57 apu systemd[1]: Starting Permit User Sessions...
Jun 19 21:50:57 apu systemd[1]: Started Permit User Sessions.
Jun 19 21:50:57 apu systemd[1]: Starting X-Window Display Manager...
Jun 19 21:50:57 apu systemd[1]: Started Getty on tty1.
Jun 19 21:50:57 apu systemd[1]: Reached target Login Prompts.
Jun 19 21:50:57 apu kernel: r8169 0000:04:00.0 enp4s0: link down
Jun 19 21:50:57 apu kernel: IPv6: ADDRCONF(NETDEV_UP): enp4s0: link is not ready
Jun 19 21:50:57 apu systemd-resolved[259]: Switching to system DNS server 192.168.117.1.
Jun 19 21:50:57 apu systemd[1]: Started Network Name Resolution.

A journalctl kimenetbol az latszik, hogy hiaba el a network-online.target, meg nincs nevfeloldas es nem tudom hogy lehetne a systemd-t ravenni, hogy a generalt mnt-media.mount valahogy a nevfeloldas beindulasa utanra essen. Valakinek volt ilyen gondja illetve megoldotta-e mar helyettem?:)

NetworkManager nincs, automounttal meg IP cim hasznalataval fel tudom csatolni, de nem ez a jo valasz.

Oracle VM Server csak lokalis storage-dzsel

Fórumok

Sziasztok,

van egy Dell R930-as szerverem 64GB RAM, 4db 1TB-os SAS diszkkel RAID10 modban.
Kollegam szamara erre kene Oracle VM Servert felraknom, melyen 2-3 VM futna. Az egyik VM szamara tobb mint 2TB hely kene (Oracle adatbazis futna rajta).

Lehuztam a 3.4.1 Server es VM Manager iso fajlokat.

Fel is installaltam az Oracle VM Server-t, miutan azonban tovabb olvasgattam, rajottem, hogy ha lokalis storage-t szeretnek hasznalni
a VM-ek reszere, erre csak nem hasznalt fizikai diszket tudok hozzarendelni VM Manager alatt.

Tobb helyrol is infot szereztem:

[1] http://www.oracle.com/technetwork/server-storage/vm/ovm32-deployment-wp…

szerint, page 13:

"Also worth noting here is that local storage repositories have a couple of other restrictions that need to be planned for: (i) only whole, unpartitioned, physical disks can be used for local storage, and (ii) local SAS disks are not supported as local storage repositories.

This means that you cannot use the unused parts of Oracle VM Server boot disks as any form of storage repository, so turning all the drives in a machine into a single huge RAID device just results in wasted space.

You can use a local SAS disk as the boot disk for Oracle VM Server, which might allow you to use the remaining non-SAS disk as a local storage repository. Remember that any time you use a local storage repository that VMs and data located there are permanently fixed to that Oracle VM Server for normal purposes.
"
Mi az a non-SAS diszk? Hasznalhato az en hardwerem erre a celra?

[2] https://docs.oracle.com/cd/E26996_01/E18549/html/CHDIGACB.html
szerint azonban:

"If an Oracle VM Server has unused hard disks, they can be used as local storage for your environment. On condition that these spare disks are completely empty, meaning they have no partitions or file systems, they are included automatically in the local storage array of the Oracle VM Server.

Note that local storage arrays are not listed under the Storage tab of the Hardware view. You can, however, see the local storage entities in locations where you can use them; for example when you create a storage repository, select a physical disk for a VM, list the physical disks accessible to an Oracle VM Server, or select a physical clone target.

Local storage has the advantage that it is fast and easy to use, but users must be aware that there is no possibility to share this type of storage and that it cannot be used in a high-availability configuration.

The configuration where local storage is most useful is where you have an unclustered server pool that contains only one Oracle VM Server. By configuring a storage repository (see Section 4.8, “Preparing and Configuring Storage Repositories”) on local storage you can set up an Oracle VM virtualized environment quickly and easily on a single server: all your resources, virtual machines and their disks are stored locally. Since there is only one Oracle VM Server, access to resources is guaranteed.
"

A Section 4.8, “Preparing and Configuring Storage Repositories” irja:

https://docs.oracle.com/cd/E26996_01/E18549/html/BABHBHGF.html

"Local storage, or unused disks in your Oracle VM Servers, are discovered as LUNs in a local storage array. If you want to use a single-server setup with local storage, be sure to deactivate clustering in your server pool. This eliminates the need for a server pool file system, which cannot be on a local disk by definition."

Most nem tudom eldonteni, megfelel-e a szerverem a kovetelmenyeknek es ha igen, hogy kene a meg installacio elott a diszkeket elokeszitenem?

Megjegyzes: https://oracleexamples.wordpress.com/2014/09/25/how-to-configure-oracle…

alatt van egy jo kis leiras, hogy kell lokalis diszket hozzaadni Oracle VM Manager alatt. (mondjuk itt mas a hw :-))

Koszonom elore a magyarazatokat, hozzaszolasokat.

Ardi

Levelező szerver router mögött

Fórumok

Üdv,

Van egy újonnan felhúzott levelező szerverem (mysql, dovecot, postfix) ami egy router mögött üzemelne.

1 eset: Ha a postafiókot fel akarom venni a thunderbird-be a valami@xyz.hu -val akkor azt nem engedi sehogy semilyen beállítással.
2. eset: Ha a valami@xyz.hu-val lépek be de az imap és smtp szervernek nem a domaint hanem a belső ip-t adom meg akkor tökéletesen belép SSL-el tudok küldeni e-mailt másik xyz.hu címre de kifelé nem és fogadni sem tudok kívülről.

Valószínűsítem hogy valahol a router és szerver között lejátszódó folyamatok miatt nem akar menni a levelezés de már idegileg kiakasztott.

Van esetleg ötletetek?

Előre is köszönöm.

képfeltöltés nem megy

Fórumok

Érdekes helyzetbe kerültem. Nálunk van a gond a helyi gépen, vagy inkább a távoli szerveren?
Az egyik tévé szerviz cégnek Linuxot tettem fel, amivel alapvetően a mindennapi használatot tekintve nincs gond. De van egy sarkalatos pontja az esetnek. Nevezetesen az, hogy a szervizprogram mely simán neten elérhető, megtagadja a képek feltöltését, akármelyik böngészőt is használjuk.
Vigasztalásul, van több Windows 7-es laptop is a szervizben, és azokból is csak az egyikkel sikerül feltenni képeket.

A szerviznek ugye le kell fotózni a hibás dolgokat, és fel kell tölteni a szerverre.
A kép fájlméret (max 40k) problémát már megoldottam egy scripttel. Hogyan tudnám kinyomozni hogy mit hiányol az adott gépről, vagy böngészőtől a szerver amiért elutasít? Mert hibaüzenet csak annyi hogy a "feltöltés sikertelen."
A strace kimutatná? Vagy inkább az adott oldal forrását kéne megnézni? Esetleg az "elem vizsgálata" segítene?
Még egyiket sem próbáltam ki. Mert gőzöm nincs melyikkel járnák nagyobb sikerrel.

Persze egyéb nyílt oldalakra simán megy a képfeltöltés, csak a szerviz oldalra nem, mely természetesen belépőkódos.
Csak úgy próbálgatni sem lehet, mert munkalaphoz kötött.

nem hasznalt vagrant box "eltuntetese"

Fórumok

Sziasztok,

mi a korrekt modja egy vagrant box ("running up" modban) "uninstall"-janak?

$ vagrant --version
Vagrant 1.4.3

probaltam a kovetkezot:
$cd /data/tesproject1
$VAGRANT_VAGRANTFILE=Vagrantfile.boxx1 vagrant destroy
Are you sure you want to destroy the 'boxx1-trusty64' VM? [y/N] y
[boxx1-trusty64] Forcing shutdown of VM...
[boxx1-trusty64] Destroying VM and associated drives...

$VAGRANT_VAGRANTFILE=Vagrantfile.boxx1 vagrant box list
box1-trusty64 (virtualbox)
box2-trusty64 (virtualbox)
box3-trusty64 (virtualbox)
boxx1-trusty64 (virtualbox) <-------#ezt kene "eltuntetni"

$VAGRANT_VAGRANTFILE=Vagrantfile.boxx1 vagrant box remove boxx1-trusty64
Removing box 'boxx1-trusty64' with provider 'virtualbox'...

$vagrant box list
box1-trusty64 (virtualbox)
box2-trusty64 (virtualbox)
box3-trusty64 (virtualbox)

Sajnos, megmaradt a kovetkezo:

$cd /data/testproject1/.vagrant/machines
$ls -la
total 12
drwx------ 3 root root 4096 Jun 3 05:51 .
drwx------ 3 root root 4096 Jun 3 05:51 ..
drwx------ 3 root root 4096 Jun 3 05:51 boxx1-trusty64 #<---nem tunt el

$cd /root/.vagrant.d/boxes
$ls -la
total 32
drwx------ 8 root root 4096 Jun 3 05:49 .
drwx------ 7 root root 4096 Jun 1 07:00 ..
drwx------ 3 root root 4096 Jun 1 07:00 box1-trusty64
drwx------ 2 root root 4096 Jun 1 10:05 box2-trusty32
drwx------ 3 root root 4096 Jun 1 12:01 box2-trusty64
drwx------ 3 root root 4096 Jun 2 10:06 box3-trusty64
drwx------ 2 root root 4096 Jun 2 10:04 box3-tursty64
drwx------ 2 root root 4096 Jun 3 06:25 boxx1-trusty64 #<----nem tunt el

Es a status: "not created":

$cd /data/testproject/
$VAGRANT_VAGRANTFILE=Vagrantfile.boxx1 vagrant status
Current machine states:

boxx1-trusty64 not created (virtualbox)

The environment has not yet been created. Run `vagrant up` to
create the environment. If a machine is not created, only the
default provider will be shown. So if a provider is not listed,
then the machine is not created for that environment.

$vboxmanage list runningvms

Itt a /data/vagrantprojects konyvtarban letrehozott box-ok talalhatok; a testproject1_boxx1-trusty64_1464933080271_10709 eltunt:

$vboxmanage list vms
"vagrantprojects_box1-trusty64_1464764497059_1307" {b5d9f5e9-218a-4112-b5ce-243a1cf3e062}
"vagrantprojects_box2-trusty64_1464782564687_15335" {1138a332-803d-4d72-9675-c1b226da1ed1}
"vagrantprojects_box3-trusty64_1464862042998_51981" {d512cdbe-7dc2-4d67-b6aa-fd5fa8426dc6}

Ardi

ssh vagrant box-ra -hogyan?

Fórumok

Sziasztok,

Abszolut kezdo vagyok ebben a temaban, ugyhogy csak ismerkedek a rendszerrel.

Vmware alatt letrehoztam egy VM-et cegileg atalakitott ubuntu trusty -bol:
OS : Ubuntu 14.04.4 LTS
Architecture : x86_64

mint root:

feltettem ra a vagrant es virtualbox csomagokat:

#dpkg -l|grep vagrant
ii vagrant 1.4.3-1 all Tool for building and distributing virtualized development environments

#dpkg -l|grep virtualbox
ii virtualbox 4.3.36-dfsg-1+deb8u1ubuntu1.14.04.1 amd64 x86 virtualization solution - base binaries
ii virtualbox-dkms 4.3.36-dfsg-1+deb8u1ubuntu1.14.04.1 all x86 virtualization solution - kernel module sources for dkms
ii virtualbox-qt 4.3.36-dfsg-1+deb8u1ubuntu1.14.04.1 amd64 x86 virtualization solution - Qt based user interface

Mivel nem tudtam paranccsal webrol installalni a virtualbox-os csomagot, lehuztam a
CentOS-6.5-x86_64-v20140504.box fajlt es a kovetkezo parancsokkal felinstallaltam:

$mkdir -p /data/hands-on-ansible

$cd /data/hands-on-ansible

letrehoztam a kovetkezo Vagrantfile-t:
$vi Vagrantfile

$cat Vagrantfile
# -*- mode: ruby -*-
# vi: set ft=ruby :

Vagrant.configure(2) do |config|
config.vm.box = "acs1"
config.vm.define "acs1" do |acs1|
acs.vm.hostname = "acs1"
acs.vm.network "private_network", ip: "192.168.33.10"
end
end

$vagrant box add acs1 /data/CentOS-6.5-x86_64-v20140504.box
Downloading box from URL: file:/data/CentOS-6.5-x86_64-v20140504.box
Extracting box...te: 44.9M/s, Estimated time remaining: --:--:--)
Successfully added box 'acs1' with provider 'virtualbox'!

$vagrant up
Bringing machine 'acs1' up with 'virtualbox' provider...
[acs1] Importing base box 'acs1'...
[acs1] Matching MAC address for NAT networking...
[acs1] Setting the name of the VM...
[acs1] Clearing any previously set forwarded ports...
[acs1] Clearing any previously set network interfaces...
[acs1] Preparing network interfaces based on configuration...
[acs1] Forwarding ports...
[acs1] -- 22 => 2222 (adapter 1)
[acs1] Booting VM...
[acs1] Waiting for machine to boot. This may take a few minutes...
Timed out while waiting for the machine to boot. This means that
Vagrant was unable to communicate with the guest machine within
the configured ("config.vm.boot_timeout" value) time period. This can
mean a number of things.

If you're using a custom box, make sure that networking is properly
working and you're able to connect to the machine. It is a common
problem that networking isn't setup properly in these boxes.
Verify that authentication configurations are also setup properly,
as well.

If the box appears to be booting properly, you may want to increase
the timeout ("config.vm.boot_timeout") value.

$vboxmanage list runningvms
vboxmanage list runningvms
"hands-on-ansible_acs1_1464334157765_29527" {368ddc0f-31ae-4ab5-bfc5-787c9bcc02c8}

$vagrant status
Current machine states:

acs1 running (virtualbox)

The VM is running. To stop this VM, you can run `vagrant halt` to
shut it down forcefully, or you can run `vagrant suspend` to simply
suspend the virtual machine. In either case, to restart it again,
simply run `vagrant up`.

Nem tudok azonban bejelentkezni a boxra.

$ssh -p2222 vagrant@127.0.0.1 -vvv
OpenSSH_6.6.1, OpenSSL 1.0.1f 6 Jan 2014
debug1: Reading configuration data /etc/ssh/ssh_config
debug1: /etc/ssh/ssh_config line 19: Applying options for *
debug2: ssh_connect: needpriv 0
debug1: Connecting to 127.0.0.1 [127.0.0.1] port 2222.
debug1: Connection established.
debug1: permanently_set_uid: 0/0
debug1: identity file /root/.ssh/id_rsa type -1
debug1: identity file /root/.ssh/id_rsa-cert type -1
debug1: identity file /root/.ssh/id_dsa type -1
debug1: identity file /root/.ssh/id_dsa-cert type -1
debug1: identity file /root/.ssh/id_ecdsa type -1
debug1: identity file /root/.ssh/id_ecdsa-cert type -1
debug1: identity file /root/.ssh/id_ed25519 type -1
debug1: identity file /root/.ssh/id_ed25519-cert type -1
debug1: Enabling compatibility mode for protocol 2.0
debug1: Local version string SSH-2.0-OpenSSH_6.6.1p1 Ubuntu-2ubuntu2.6
ssh_exchange_identification: read: Connection reset by peer

Tudna valaki segiteni?
Koszonom a tippeket.
Ardi

tar, backup

Fórumok

Sziasztok!

Szkriptben tar -t használok felhasználók munkakönyvtárainak mentésére.
Minden egyes felhasználó egy tar fájlba kerül.
A munkakönyvtárakat egy hálózati megosztáson (samba) keresztül éri el a szkript.
Mindig csak a változott fájlokat kellene mentenie a szkriptnek,
ezzel szemben vannak napok amikor az összes felhasználó összes állománya
mentésre kerül. Az hogy melyik nap fut le így a mentés az látszólag véletlen szerű.

Munka könyvtárak csatolása:
mount -t cifs //szerver/munka -o username=...,password=...,rsize=130048,wsize=57344,noatime /mnt/munka

Egy könyvtár (user1) mentése:
tar -g user1.diff -czf user1.tar /mnt/munka/user1 &> /dev/null

Valakinek valami ötlete, h miért lehet?

Előre is köszönöm.