Linux-haladó

Ruby high load average

 ( kacsa | 2016. december 11., vasárnap - 11:30 )

Sziasztok,

Van egy ruby alkalmazás ami egy Ubuntu 12.04 szerveren fut. Az alkalmazás egy elég nagy "load average"-ot generál (5 és 15 között mozog).
Ha futtatom a "top" parancsot a Cpu(s) sorban a "sy: system cpu time (or) % CPU time spent in kernel space" érték a legmagasabb (30% - 50%).
Strace-al debugoltam a ruby alkalmazást (pld: strace -p ruby_pid):


futex(0x2233f64, FUTEX_WAIT_PRIVATE, 3502868, NULL) = -1 EAGAIN (Resource temporarily unavailable)
futex(0x2233f64, FUTEX_WAIT_PRIVATE, 3502870, NULL) = 0
futex(0x2233f30, FUTEX_WAKE_PRIVATE, 1) = 0

openstack otthoni gepen ubuntu OS

 ( ardi | 2016. december 9., péntek - 9:19 )

Sziasztok,

van valakinek tippje, hogy lehetseges-e desktop gepre (16 GB RAM) openstack-et installalni?
Mondjuk ubuntu ala ?

Koszonom elore a segitseget.

ardi

Telekom Optika / PPPoE és DNS probléma

 ( VaZso | 2016. december 9., péntek - 2:09 )

Sziasztok!

Annak idején UPC-nél elég gyakran volt DNS-fennakadás, amit egyszer meguntam és beállítottam a Bind-et helyette - ez egy saját, Debian rendszeren fut.
Ez évekkel ezelőtt történt, a DNS-problémák pedig ezzel meg is szűntek...

Nemrégiben váltottam Telekomra, ahol optikai hálózatra kerültünk, és az azonosítás PPPoE protokollon keresztül történik.
A routerként (is) funkcionálo Debian rendszer megmaradt, de fel kellett telepíteni rá a PPPoE csatlakozás miatt szükséges komponenseket, és a kimenő interfész eth1-ről ppp0-ra változott.

systemd: hogyan szerezhetem vissza az irányítást a szerver felett?

 ( kumgabor | 2016. december 3., szombat - 21:20 )

Sziasztok!

Adott egy fizikai szerver, KVM-mel, Debian 8-cal, és döglött systemd-vel.

CTRL+ALT+DEL-t, CTRL+C-t már küldtem, nem használt, SSH és remote reset unit nincs. Van valakinek valami ötlete?

Iptables külső ip továbbítása

 ( tmms | 2016. december 2., péntek - 13:50 )

Sziasztok!

Megoldható, hogy az iptables gateway eth1-es (belső) oldalán külső ip címeket (kliensekét, akik befele csatlakozást próbálnak) mutasson a mögötte lévő szervernek, és ha igen, hogyan?
Internet eth0
Belső háló eth1
Az eth1 után van egy tűzfal akinek látnia kéne a külsős IP címeket. A e tűzfal mögött kliensek vannak, net eléréshez is szükség van.

Hogyan lehet I/O Space-et írni linuxban?

 ( baloghlaszlo | 2016. december 1., csütörtök - 15:15 )

Hali!

Ez az érdekes kérdés akkor merült fel, amikor kínából a beépített alaplapom megjött, és egy ITE chipen keresztül GPIO portok is vannak rajta. A kínai azt írta/mutogatta el, hogy windowson van egy

"Read & Write Utlitiy" http://rweverything.phpnet.us/index.htm

Amiben I/O space-t választva az adott hexa értékeket átírva a GPIO 1-re vagy 0-ra vált.

Korábban gpio-t csak rapsberry pi-n használtam, de ott @drogon úr szuper GPIO utilityt készített, ott csak parancssorból kellett parancsokat kiadni.

apache2 url átirányítás kikapcsolása

 ( gedg87 | 2016. november 30., szerda - 15:59 )

Sziasztok!

Adott egy web szerver, amiről egy erp rendszer fut.

Annak idején a webfejlesztő srác, úgy állította be az oldalt, hogy nem definiált virtualhostokat, csak egy alap erp könyvtárat hozott létre, a /var/www/html könyvtáron belül, illetve egy index.html állományt, amely , ha meghívjuk a mydomain.hu oldalt, akkor átirányít a mydomain.hu/erp url-re.

[Megoldva]Debian8 + Intel 10-Gigabit SFI/SFP+ nem müködik a hálózat

 ( mauser1 | 2016. november 25., péntek - 17:43 )

Sziasztok!

Debian 8.5
Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Optica

Switchen:
switchport access vlan 192 stb (egyszerű access port)

Próbáltuk még az inteface konfigba a
speed 10000
és a
speed nonegotiated
beállitásokat

Debián oldalon:
ethtool -i eth0
driver: ixgbe
version: 3.19.1-k
firmware-version: 0x800006da
bus-info: 0000:02:00.0
supports-statistics: yes
supports-test: yes
supports-eeprom-access: yes
supports-register-dump: yes
supports-priv-flags: no

--
ethtool eth0
Settings for eth0:
Supported ports: [ FIBRE ]

CentOS 6 + AD

 ( mogorva | 2016. november 23., szerda - 13:35 )

Érthetetlen problémába ütköztem.

Van három AD csoport.
A csoportok mind Global és Security típusúak.
A gyökerük az AD-ben azonos (dc=valami,dc=cégnév,dc=sys) utána az első és a második egy ideig "együtt megy" és csak később válnak szét, a harmadik viszont rögtön elmegy teljesen másik ágra.
Kb. így:

cn=csoport1,ou=ou111,ou=11,ou=1,dc=valami,dc=cégnév,dc=sys
cn=csoport2,ou=ou112,ou=11,ou=1,dc=valami,dc=cégnév,dc=sys
cn=csoport3,ou=9,dc=nagyonmás,dc=mégvalami,dc=valami,dc=cégnév,dc=sys

Hozzáadtam a szervert az AD-hez.

Rewrite X-akta

 ( gkaroly | 2016. november 22., kedd - 22:27 )

Sziasztok!

Érdekes problémám van, megpróbálom összeszedni:

Adott egy master gép, amin fut egy lxc konténer - az egyszerűség kedvéért nevezzük kettes gépnek.

Szóval a kettes gépen fut egy LAMP, ezen egy Word Press oldal, amire master gépről reverse proxyzok:

Valamilyen okból a weboldal csak akkor jelenik meg szépen, ha a master gépen eleve redirectelek www-re.
Tehát:
RewriteEngine on

RewriteCond %{HTTP_HOST} !^www.
RewriteRule ^(.*)$ http://www.%{HTTP_HOST}$1 [R=301,L]

ProxyPass / http://www.orsolyadarcsi.hu/

Domain member Samba probléma

 ( begin | 2016. november 22., kedd - 17:23 )

Sziasztok!

Telepítettem egy 'domain member' samba4 kiszolgálót, ami AD-ből authentikál. A bekonfigurálást a Setup Samba as an AD Domain Member leírás alapján végeztem, de Windows 10 kliens alól nem sikerül a megosztott könyvtárakat elérnem. A tallózáskor ugyan megjelenik a megosztás, de nem sikerül hozzáférnem, olyan mintha hibás felhasználónevet/jelszót adnék meg.

[megoldva] NFS mount

 ( lipiqe | 2016. november 22., kedd - 11:16 )

Kedves HUP kozosseg!

Megkattantam :) Belefutottam valamibe, amit hirtelen nem ertek mi okoz, ebben kernek tanacsokat...

Kezzel az alabbi parancs hibatlanul lefut:
en@serveren:/# mount -t nfs VALAMIIP:/valamiFolder/valamiMegosztas /valamiLocalFolder

lemegy a probalgatas, ir, olvas, mashonnan rogzitett allomanyok is megvannak, minden remek, ahogy kell.
levalasztom, h fstab-ba felvegyem
en@serverem:/# umount /valamiFolder

fstab-ban felveszem a kovetkezo sort:
VALAMIIP:/valamiFolder/valamiMegosztas /valamiLocalFolder nfs rw,sync,hard,intr 0 0

Kis vállalati ceph cluster építése

 ( wolfwood | 2016. november 16., szerda - 13:53 )

Üdv! Szeretnék tanácsokat, javaslatokat kérni egy kis céges ceph cluster kialakításához. Szépen pár hónap alatt, apránként akarjuk felépíteni a dolgokat cept, proxmox alapon. Egyenlőre ~50+ vpst futtatunk egy régi ganetis környezetben, drbd vel amit kinőttünk, ez később teljesen vagy részben átkerülne a proxmox cluster alá. Első körben egy 10-15 vps menne élesben, azt követően pedig 30... tapasztalatok, eredmények függvényében. Nagyjából egy hónapja ültem neki a témának és foglalkozom vele. Jelenleg az alábbi felállásban képzelem el az indulást.

Google fiók problémák (catch all, split delivery)

 ( Honkydoo | 2016. november 14., hétfő - 17:27 )

Sziasztok!

Az alábbi problémával küzdök:
Adott egy üzleti Google fiók, amibe az összes beérkező levél belefut. Az MX rekord ide van irányítva.
Innen szívtuk volna le a leveleket fetchmaillel. De ha a kívülről érkező levélnek több, a mi domainünkbe található (ember1@endomain.hu,

) címzettje volt, akkor nem két levél érkezett a postaládába, hanem csak egy, aminek a Delivered to mezője random volt kitöltve. (ember1@endomain.hu vagy

de sohasem mind a kettő)

Clustered LVM CEPH felett

 ( csardij | 2016. november 9., szerda - 19:31 )

Helló,

Az alábbit szeretném megvalósítani:
CEPH clusterbe létrehozva egy block volume, amit rendben fel is lehet mountolni több gépen is, ez eddig tiszta sor.

Viszont erre a blokk eszközre szeretnék clustered LVM-et létrehozni a gépek között. Normál esetben ha egy iscsi tároló lenne, akkor iscsi fencinggel beállítva simán megy, azonban ilyen esetben mit kéne beállítani? Van valami direkt ceph rdb-hez való fencing, vagy valami más általános dolgot kéne használni?

Ceph supportot / támgatást melyik cég nyújt üzleti alapon?

 ( csardij | 2016. november 7., hétfő - 22:38 )

Helló,

Ceph-hez lehet venni supportot, támogatást (A Red Hat Storage-on kívül), akár itthon akár külföldön? Akár kulcsrakészen (tervezéstől a napi üzemeltetésig), akár csak esetileg/alkalmilag?

[megoldva] root jog beszerzési gond

 ( pepo | 2016. november 5., szombat - 0:02 )

Sziasztok!

Egy olyan notin (szervergépen) kell root jogot szereznem, ahol

- A fizikai hozzáférés teljes...
- Az OS Ubuntu Server (ez igen nagy eséllyel indifferens).
- A jelenlegi szolgáltatások és konfigurációik nem sérülhetnek.
- A DVD meghajtó halott.
- Nincs USB bootolási lehetőség. (Ez szerkesztett kiegészítés.)
- Sok próbálkozás után sem tudtam a grub betöltőt elérni: avagy nyomkodtam varázserejű az "e" gombot, hátha egy grub konfigot elérek, hogy a /bin/bash initet elérjem.

Sok minden jutott az eszembe a hardveres megoldási lehetőségről:
- vinyó ki, másik gépen frusztrálni.
- külső DVD USB-s felcsatolása, de nincs külső USB-s DVD tokom.
- kőbunkóval agyonverni, aki így hagyta itt a "szervergépet". Ez persze csak a lelki megnyugvásomnak tenne eleget, de a problémát korántsem orvosolná.

Megoldva.

httpd clusterhez milyen közös filrendszer jó?

 ( baloghlaszlo | 2016. október 31., hétfő - 21:44 )

Sziasztok!

Van egy apache szerveres VM-ekből álló kis clusterem, load balancerként nginx-et használok. A rendszer fut és probléma nincs, a kérdésem az, hogyha az apache web root folderét szeretném közös filerendszerre tenni, akkor arra mit ajánlotok?

Pl.: ha egy user feltölt egy file-t az egyik szerverre, az a másik szerveren is jelenjen meg.

CentOS 7: LVM cluster nem indul el reboot után

 ( csardij | 2016. október 27., csütörtök - 19:39 )

Helló,

Telepítettem és beállítottam egy LVM clustert (pcs-vel), ami tök jól megy, az egyetlen gond, hogy reboot után, nem indul el automatán a resource, így az lvm kötetek sem jönnek fel.

Cluster name: lvm-ha
Last updated: Thu Oct 27 20:35:12 2016 Last change: Thu Oct 27 20:12:39 2016 by root via cibadmin on node1
Stack: corosync
Current DC: node6 (version 1.1.13-10.el7_2.4-44eb2dd) - partition with quorum
4 nodes and 9 resources configured

Online: [ node1 node6 node7 node9 ]

Full list of resources:

OpenStack Newton Ubuntu 16.04 nova-api error

 ( balazsasd | 2016. október 25., kedd - 20:28 )

Sziasztok!

Kezdeti szenvedés szakaszban vagyok, nagyából már mindent megvan amit első körben összerakni szerettem volna, de az instance létrehozásánál elakadok. A leírás alapján megcsináltam mindent, provided hálózati módszer szerint raktam össze.

A hibám az hogy a létrehozások egy api hívás nem kap választ. Az adott python kimenet nekem nem mond többet mint hogy timeoutra fut.

a controller konfigja: https://codeshare.io/QVn80
a compute node konfigja: https://codeshare.io/lm2I5
a létrehozáskor keletkező debug kimenet: https://codeshare.io/CjWHR

Jogosultságok és timestamp megváltoztatása

 ( manfreed | 2016. október 23., vasárnap - 6:59 )

(bizonytalan vagyok, hogy ez linux-kezdő, vagy haladó téma)

Sziasztok. Adott egy teszt szerver, ezen Amazon Linux fut. A szerveren a /var/www, és alatta minden web:web tulajdonában áll, setgid bit belőve minden könyvtárra, az oldal feltöltésére jogosult userek hozzárendelve a web csoporthoz.

A PhpStorm deploy funkcióját használom a fájlok feltöltésére, sftp-vel, a saját useremet használva. Egy érdekes hibát tapasztalok, idézem: "Failed to change timestamp of the file ...". Részletes logokból kiderül, hogy Permission denied a hiba oka.

iptables teljes forgalom átirányítás

 ( tmms | 2016. október 21., péntek - 14:15 )

Sziasztok!

Adott két gép a következő ábrával mutatom:

-- INTERNET --> (ETH0) [IPTABLES+Suricata] 192.168.5.162 (ETH1) ------> 192.168.5.161 [TMG] ----> BELSŐ HÁLÓZAT

Az lenne a kérés, hogy suricata (NFQUEUE) szűrjőn minden befele jövő kapcsolatot, és továbbítson minden kapcsolatot (amit nem dob el) a TMG felé.

Hogy tudom ezt megtenni?

Cache-ből futó LVM / VG / PV helyreállítása

 ( gnorbesz | 2016. október 15., szombat - 22:45 )

Adott egy virtualizációs környezet (több fizikai szerverből álló pool), ahol a VPS-ek virtuális merevlemezei lvm targeteken vannak tárolva egy közös storage-on. Tegnap valami félresiklott, ugyanis a virtualizációs környezet nem látja az lvmeket az alábbiak szerint:
A /dev/vgneve elérési útvonal alatt látszódnak az lvm targetek.
Viszont ha a szerveren kiadunk egy lvscan parancsot, ott nem látszik egy lvm target sem az adott volume groupban.

Samba AD DC - egyedi idmapping

 ( junior013 | 2016. október 13., csütörtök - 14:58 )

Samba4 alapú Active Directory felépítésén fáradozom, de mivel majd egy régi NT Domain alapú (szintén Samba) rendszerből kell adatokat migrálnom szükség lenne rá, hogy a user-ek UID/GID azonosítóit a régi rendszerrel megegyezően map-elje.

Jelenleg winbind-et használok idmap-re, de sajnos még ez sem egységesen map-el minden szerveren (bevallom, nem teljesen értem a lelkivilágát).
A legoptimálisabb az lenne, ha a user AD-ban beállított UNIX attribútumai szerint map-elődnének az ID-k. De hogy tudom ezt elérni? A Google egyelőre nem a barátom :(

[megoldva] SRV rekord mail fiók automatikus beállításához

 ( Proci85 | 2016. október 9., vasárnap - 19:02 )

Sziasztok

Elolvastam ezt: https://www.lowendtalk.com/discussion/36969/auto-configure-email-with-srv-records
És ezt: https://tools.ietf.org/html/rfc6186

Beállítottam így:

_imap._tcp     SRV  0 0 0   .
_imaps._tcp    SRV  0 1 993 mail.example.com.
_pop3._tcp     SRV  0 0 0   .
_pop3s._tcp    SRV 10 1 995 mail.example.com.

Sajnos a Thunderbird új fiók hozzáadásakor ugyanúgy az imap.example.com címet állítaná be STARTTLS-sel.

Próbáltam az example.hu MX rekordban megadott domain alá is ugyanúgy felvenni ezeket. Változatlan az eredmény.