Hálózatok egyéb

Telekom GPON + KAON PG2141N WAN bontás router mögött 20–30 mp után

Sziasztok,
 

Telekom GPON infrastruktúrán futó One optikai előfizetéssel kapcsolatban kérnék tapasztalatot.
ONT: KAON PG2141N
Környezet: intézményi hálózat, Debian alapú kétlábas gateway (WAN DHCP, LAN 10.0.0.0/24), NAT a gateway-en. IPTV aktív az ONT egyik LAN portján.
 

A gateway WAN interfésze DHCP-n IP-t kap a KAON-tól (pl. 192.168.1.5/24), default route beáll, külső ping működik, lease idő több órás. Az L3 kapcsolat tehát felépül.
Viszont ~20–30 másodperc után a WAN kapcsolat megszakad. Nem lease expiry, nem fizikai link hiba, nem route hiány. A jelenség reprodukálható.
 

Más szolgáltatói vonalon ugyanaz a gateway évek óta stabilan működik.
Találkozott már valaki Telekom GPON + KAON PG2141N kombinációban:
 

router-behind-router detekcióval,
WAN session policinggel,
OLT provisioning profil miatti bontással?
 

Érdekelne, hogy ismert viselkedés-e, illetve Huawei ONT-val stabilabb-e hasonló topológiában.
 

Köszönöm, Antal

[Megoldva] Otthonra backup internet

Sziasztok!

Akinek ez előjött, hogy kell, hogy oldotta meg otthon a backup internetet?

Jelenleg a One-nál vagyok, de hetente-kéthetente van valami probléma.

Alapvetően home office-hoz keresek megoldást, pl egy másodlagos vonal a Telekomtól, ami 6000-7000 Ft-tól kezdődik. Vagy mobilnetet, és ezt lehet csak alkalmanként, szükség esetén feltölteni.

Ha mobilnet, akkor melyik? Valamelyik nagyobb Magyarországon is jelenlévő nagy szolgáltató, vagy esetleg egy esim-es csomag valamelyik alternatív szolgáltatótól? Mobilnettel kapcsolatban olvastam itt a hup-on már mellényúlásokat, amikor valakinek nem működött még sem, mert szolgáltatói oldalról nem volt kapacitás, és a garantált sávszélesség az 0/0 volt.

Egy plusz kérdés, ennek mi a gyakorlati haszna: https://eu.store.ui.com/eu/en/products/utr ha a mobilban úgyis van wifi megosztás? Látom a FB-on, hogy nagyon pörög, de mintha olyanok vennék, akik minden új unifi termékre lecsapnak, mert rajongók.

Köszönöm

 

Megoldva: Köszi szépen mindenkinek a tanácsokat.


 

mailX.gate.gov.hu tanusítvány hiba

Sziasztok,

miért nem lehet ennek a email szervernek rendes certet generáltatni?

ezt tényleg mindenkinek whitelistre kell tenni, aki email szervert üzemeltet?

mailX.gate.gov.hu    #x=[1,2,3]

SSL verify error: depth=0 error=self signed certificate cert=/C=--/ST=SomeState/L=SomeCity/O=SomeOrganization/OU=SomeOrganizationalUnit/CN=ekozig-pb-mail3.kak.internal/emailAddress=root@ekozig-pb-mail3.kak.internal
LOG: MAIN [84.206.131.115] SSL verify error: depth=0 error=certificate has expired cert=/C=--/ST=SomeState/L=SomeCity/O=SomeOrganization/OU=SomeOrganizationalUnit/CN=ekozig-pb-mail3.kak.internal/emailAddress=root@ekozig-pb-mail3.kak.internal
LOG: MAIN [84.206.131.115] SSL verify error: certificate name mismatch: DN="/C=--/ST=SomeState/L=SomeCity/O=SomeOrganization/OU=SomeOrganizationalUnit/CN=ekozig-pb-mail3.kak.internal/emailAddress=root@ekozig-pb-mail3.kak.internal" H="mail3.gate.gov.hu"

szóljon már valaki nekik

üdv,

KB

"elérhetetlenné tette a magyar hatóság a Polymarketet" - Technikailag hogyan?

Technikailag érdekel, hogy mikor minden hazai szolgáltatónak saját nemzetközi kapcsolatai, útvonalai vannak, akkor technikailag hogyan oldja meg egy hatóság, hogy egy adott site elérhetetlen legyen az egész országból - ilyen gyorsan?

https://qubit.hu/2026/01/19/maris-elerhetetlenne-tette-a-magyar-hatosag-a-polymarketet-tiltott-szerencsejatek-szervezese-miatt

(Mellesleg traceroute végigmegy, IP szinten OK, csak a website "connection reset")

Telekom VoWiFi infok

Sziasztok!

"szigoru" tuzfal mogott szeretnenk egy VoWiFi SSID-t csinalni. probaltam hivni a supportot adatokert, de nem lettem okosabb.... (konkretan azt javasoltak, hogy irjak telekomos forumokba, hatha tudja valaki, mert idezem "ott olyan ugyesek vannak" No comment)

Talaltam a neten egy ilyet, de ez nyilvan nem a magyar Telekom ra vonatkozik. Esetleg valaki tud pontosabb adatokat?

https://www.t-mobile.com/support/coverage/wi-fi-calling-on-a-corporate-network

Nextcloud AppAPI

sziasztok,

Nextcloud 32.0.2-hoz szeretném beállítani az AppAPI-t. a Nextcloud dockerben fut, ugyanoda telepítettem konténerbe a HaRP Proxy-t Docker Compose-zal:

services:
 harp:
   container_name: appapi-harp
   hostname: appapi-harp
   image: ghcr.io/nextcloud/nextcloud-appapi-harp:latest
   restart: unless-stopped
   volumes:
     - /var/run/docker.sock:/var/run/docker.sock
     - ./certs:/certs
   environment:
     - HP_SHARED_KEY="secret"
     - NC_INSTANCE_URL="http://nextcloud.local"
#      - HP_EXAPPS_ADDRESS="0.0.0.0:8780"
   ports:
     - 8780:8780
     - 8782:8782
#    network_mode: host
networks:
 default:
   name: nextcloud
   external: true

container log:

###############################################################################
# FRONTEND: ex_apps_https (only enabled if /certs/cert.pem exists)
###############################################################################
#_HTTPS_FRONTEND_ frontend ex_apps_https
#_HTTPS_FRONTEND_     mode http
#_HTTPS_FRONTEND_     bind 0.0.0.0:8781 ssl crt /certs/cert.pem
#_HTTPS_FRONTEND_     filter spoe engine exapps-spoe config /etc/haproxy/spoe-agent.conf
#_HTTPS_FRONTEND_     http-request silent-drop if { var(txn.exapps.bad_request) -m int eq 1 }
#_HTTPS_FRONTEND_     http-request return status 401 content-type text/plain string "401 Unauthorized" if { var(txn.exapps.unauthorized) -m int eq 1 }
#_HTTPS_FRONTEND_     http-request return status 403 content-type text/plain string "403 Forbidden" if { var(txn.exapps.forbidden) -m int eq 1 }
#_HTTPS_FRONTEND_     http-request return status 404 content-type text/plain string "404 Not Found" if { var(txn.exapps.not_found) -m int eq 1 }
#_HTTPS_FRONTEND_     use_backend %[var(txn.exapps.backend)]
###############################################################################
# BACKENDS: ex_apps & ex_apps_backend_w_bruteforce
###############################################################################
backend ex_apps_backend
   mode http
   server frp_server 0.0.0.0
   http-request set-path %[var(txn.exapps.target_path)]
   http-request set-dst var(txn.exapps.target_ip)
   http-request set-dst-port var(txn.exapps.target_port)
   http-request set-header EX-APP-ID %[var(txn.exapps.exapp_id)]
   http-request set-header EX-APP-VERSION %[var(txn.exapps.exapp_version)]
   http-request set-header AUTHORIZATION-APP-API %[var(txn.exapps.exapp_token)]
   http-request set-header AA-VERSION "32"  # TO-DO: temporary, remove it after we update all ExApps.
backend ex_apps_backend_w_bruteforce
   mode http
   server frp_server 0.0.0.0
   http-request set-path %[var(txn.exapps.target_path)]
   http-request set-dst var(txn.exapps.target_ip)
   http-request set-dst-port var(txn.exapps.target_port)
   http-request set-header EX-APP-ID %[var(txn.exapps.exapp_id)]
   http-request set-header EX-APP-VERSION %[var(txn.exapps.exapp_version)]
   http-request set-header AUTHORIZATION-APP-API %[var(txn.exapps.exapp_token)]
   http-request set-header AA-VERSION "32"  # TO-DO: temporary, remove it after we update all ExApps.
   filter spoe engine exapps-bruteforce-protection-spoe config /etc/haproxy/spoe-agent.conf
###############################################################################
# BACKEND: nextcloud_control (HTTP)
###############################################################################
backend nextcloud_control_backend
   mode http
   server nextcloud_control 127.0.0.1:8200
   http-request set-path %[var(txn.exapps.target_path)]
###############################################################################
# BACKEND: docker_engine (HTTP)
###############################################################################
backend docker_engine_backend
   mode http
   server frp_server 127.0.0.1
   http-request set-dst-port var(txn.exapps.target_port)
   http-request set-path %[var(txn.exapps.target_path)]
   # docker system _ping
   http-request allow if { path,url_dec -m reg -i ^(/v[\d\.]+)?/_ping$ } METH_GET
   # docker inspect image
   http-request allow if { path,url_dec -m reg -i ^(/v[\d\.]+)?/images/.*/json } METH_GET
   # container inspect: GET containers/%s/json
   http-request allow if { path,url_dec -m reg -i ^(/v[\d\.]+)?/containers/nc_app_[a-zA-Z0-9_.-]+/json } METH_GET
   # container inspect: GET containers/%s/logs
   http-request allow if { path,url_dec -m reg -i ^(/v[\d\.]+)?/containers/nc_app_[a-zA-Z0-9_.-]+/logs } METH_GET
   # image pull: POST images/create?fromImage=%s
   http-request allow if { path,url_dec -m reg -i ^(/v[\d\.]+)?/images/create } METH_POST
   http-request deny
backend agents

   mode tcp
   timeout connect 5s
   timeout server  3m
   option spop-check
   server agent1 127.0.0.1:9600 check
INFO: FRP server configuration generated at /frps.toml.
INFO: Detected /var/run/docker.sock, generating /frpc-docker.toml configuration file...
INFO: Starting Python HaProxy Agent on 127.0.0.1:8200 and 127.0.0.1:9600...
INFO: Waiting for HaRP Agent HTTP (GET http://127.0.0.1:8200/info) to be ready...
INFO: Waiting for SPOA port 127.0.0.1:9600...
INFO: Starting FRP server on 0.0.0.0:8782...
INFO: Waiting for FRP server port 127.0.0.1:8782...
INFO: Starting FRP client for Docker Engine...
INFO: Starting HAProxy...
error unmarshaling JSON: while decoding JSON: json: cannot unmarshal string into Go value of type v1.ClientConfig
[NOTICE]   (1) : Initializing new worker (46)
[NOTICE]   (1) : haproxy version is 3.1.2-cda631a
[WARNING]  (1) : Process 39 exited with code 1 (Exit)
[NOTICE]   (1) : Loading success.
[2025-11-29T17:56:08+0000] [WARNING] Recorded failure for IP 172.23.0.4. Failures in window: 1
[2025-11-29T18:39:49+0000] [WARNING] Recorded failure for IP 172.23.0.4. Failures in window: 1
[2025-11-29T18:47:45+0000] [ERROR] Invalid request path, cannot find AppID: /v1.41/_ping
[2025-11-29T18:47:45+0000] [WARNING] Recorded failure for IP 172.23.0.4. Failures in window: 1
[2025-11-29T18:50:22+0000] [WARNING] Recorded failure for IP 172.23.0.4. Failures in window: 2
[2025-11-29T18:51:07+0000] [WARNING] Recorded failure for IP 172.23.0.4. Failures in window: 3
[2025-11-29T18:51:17+0000] [WARNING] Recorded failure for IP 172.23.0.4. Failures in window: 4
[2025-11-29T18:51:54+0000] [WARNING] Recorded failure for IP 172.23.0.4. Failures in window: 5
[2025-12-01T13:09:22+0000] [WARNING] Recorded failure for IP 172.23.0.4. Failures in window: 1

Nextcloud Register Deploy-daemon:

Daemon configuration template: HaRP Proxy (Docker)
Surname: harp_proxy_docker
Display name: HaRP Proxy (Docker)
Deployment method: docker-install
HaRP host: appapi-harp:8782
HaRP shared key: secret
Nextcloud URL: cloud.FQDN.com
FRP server address: appapi-harp:8782
Docker socket proxy port: 24000
Docker network: nextcloud
Compute device: CPU

Nextcloud log:

ClientExceptionClient error: `GET http://appapi-harp:8780/exapps/app_api/v1.41/_ping` resulted in a `401 Unauthorized` response: 401 Unauthorized

Could not connect to Docker daemon via http://appapi-harp:8780/exapps/app_api/v1.41/_ping

valakinek sikerült már ezt életre keltenie? mi a titok?

köszi.

BW4 kamera - Registering Cloud Services failed

Nagyjából 2 éve üzemel egy ilyen típusú kamera, mondhatni bevált. Gondoltam veszek még egyet, hogy a másik irányba is lássak a ház körül. Azonban ezt már nem sikerül hozzáadni az OKAM pro appban, elakad a folyamat. A hangbemondás alapján a wifi kapcsolat oké, 2,4 GHz-es wifi hálózaton van. Azonban a Registering Cloud Services - jelentsen ez bármit is - mindig elakad. A kamerát újraindítva egyébként már megy is a wifi-re, de az appban nem látszik mégsem. Próbáltam beszélni a "supporttal", de elég lassan halad a dolog. Firmware frissítés nem segített. Valakinek esetleg van ilyen kamerája és tapasztalt már hasonlót?

Debian 13 LACP LAG ZyXel XGS1930 switch és Intel X540-AT2 között

Tisztelt kollégák!

Egyszerűen nem jövök rá mit rontok el. Adott egy DELL R250 szerver, benne egy X540-AT2 Intel 2x 10GbE hálózati vezérlővel. Debian 13 Trixie alap, Proxmox 9, naprakész csomagok. Ezt szeretném egy ZyXel XGS1930 switch-el LACP-vel összekapcsolni. Az SFP modulok gyári ZyXel-ek, jó drágák, nem utángyártott 3rd-party alkatrész. A konfiguráció a Debian oldalán a következő (teljesen alap, ahogy a nagy könyvben meg van írva):

auto bond0
iface bond0 inet manual
       bond-slaves ens1f0 ens1f1
       bond-miimon 100
       bond-mode 802.3ad
       bond-xmit-hash-policy layer2+3

auto vmbr0
iface vmbr0 inet manual
       bridge-ports bond0
       bridge-stp off
       bridge-fd 0
       bridge-vlan-aware yes
       bridge-vids 5 24 100 711 712 721 722 723 724

auto vmbr0.24
iface vmbr0.24 inet static
       address 192.168.24.111/24
       gateway 192.168.24.254

auto vmbr0.100
iface vmbr0.100 inet static
       address 172.20.72.232/24

A switch oldalán LAG group létrehozva, portok hozzárendelve, az egyes portokon ugyanazok a VLAN-ok engedélyezve. LACP engedélyezve. Itt ezekből lehet választani: src-mac, dst-mac, src-dst-mac, src-ip, dst-ip, src-dst-ip (most src-dst-mac értéken van). Próbáltam a Linux oldalán layer2 és layer3+4 hash policy-val is, de nem jártam sikerrel.

A link nem áll össze. ha magára hagyom legalább 10-15 percet, egyszer csak "féllábon" összeáll. A Debian oldalán azt mondja mindkettő link UP, de a switch az egyik portra azt írja ilyenkor hogy DOWN, és a "Synchronized Ports" is csak a másikat tartalmazza. Ekkor így néznek ki a dolgok:

ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
   link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
   inet 127.0.0.1/8 scope host lo
      valid_lft forever preferred_lft forever
   inet6 ::1/128 scope host noprefixroute 
      valid_lft forever preferred_lft forever
4: ens1f0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP group default qlen 1000
   link/ether b4:96:91:1a:a2:ec brd ff:ff:ff:ff:ff:ff
   altname enp1s0f0
   altname enxb496911aa2ec
5: ens1f1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc mq master bond0 state UP group default qlen 1000
   link/ether b4:96:91:1a:a2:ec brd ff:ff:ff:ff:ff:ff permaddr b4:96:91:1a:a2:ee
   altname enp1s0f1
   altname enxb496911aa2ee
6: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue master vmbr0 state UP group default qlen 1000
   link/ether b4:96:91:1a:a2:ec brd ff:ff:ff:ff:ff:ff
7: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
   link/ether b4:96:91:1a:a2:ec brd ff:ff:ff:ff:ff:ff
   inet6 fe80::b696:91ff:fe1a:a2ec/64 scope link proto kernel_ll 
      valid_lft forever preferred_lft forever
8: vmbr0.24@vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
   link/ether b4:96:91:1a:a2:ec brd ff:ff:ff:ff:ff:ff
   inet 192.168.24.111/24 scope global vmbr0.24
      valid_lft forever preferred_lft forever
   inet6 fe80::b696:91ff:fe1a:a2ec/64 scope link proto kernel_ll 
      valid_lft forever preferred_lft forever
9: vmbr0.100@vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
   link/ether b4:96:91:1a:a2:ec brd ff:ff:ff:ff:ff:ff
   inet 172.20.72.232/24 scope global vmbr0.100
      valid_lft forever preferred_lft forever
   inet6 fe80::b696:91ff:fe1a:a2ec/64 scope link proto kernel_ll 
      valid_lft forever preferred_lft forever
11: tap100i0: <BROADCAST,MULTICAST,PROMISC,UP,LOWER_UP> mtu 1500 qdisc fq_codel master vmbr0 state UNKNOWN group default qlen 1000
   link/ether b6:d6:be:23:c2:93 brd ff:ff:ff:ff:ff:ff

 

cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v6.14.11-4-pve
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2+3 (2)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
Peer Notification Delay (ms): 0
802.3ad info
LACP active: on
LACP rate: slow
Min links: 0
Aggregator selection policy (ad_select): stable
System priority: 65535
System MAC address: b4:96:91:1a:a2:ec
Active Aggregator Info:
       Aggregator ID: 1
       Number of ports: 1
       Actor Key: 15
       Partner Key: 2
       Partner Mac Address: d8:ec:e5:a0:06:ad
Slave Interface: ens1f0
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 4
Permanent HW addr: b4:96:91:1a:a2:ec
Slave queue ID: 0
Aggregator ID: 1
Actor Churn State: none
Partner Churn State: none
Actor Churned Count: 0
Partner Churned Count: 4
details actor lacp pdu:
   system priority: 65535
   system mac address: b4:96:91:1a:a2:ec
   port key: 15
   port priority: 255
   port number: 1
   port state: 61
details partner lacp pdu:
   system priority: 32768
   system mac address: d8:ec:e5:a0:06:ad
   oper key: 2
   port priority: 1
   port number: 27
   port state: 63
Slave Interface: ens1f1
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 22
Permanent HW addr: b4:96:91:1a:a2:ee
Slave queue ID: 0
Aggregator ID: 2
Actor Churn State: monitoring
Partner Churn State: monitoring
Actor Churned Count: 22
Partner Churned Count: 22
details actor lacp pdu:
   system priority: 65535
   system mac address: b4:96:91:1a:a2:ec
   port key: 15
   port priority: 255
   port number: 2
   port state: 69
details partner lacp pdu:
   system priority: 65535
   system mac address: 00:00:00:00:00:00
   oper key: 1
   port priority: 255
   port number: 1
   port state: 1

A switch-en a "System Priority" értéke 32768, ezt látom eltérésnek, ez okozhat gondot?

Mit rontok el? Köszönöm az útmutatást előre is!

MS Teams :)

Most próbáltam belépni a Teams-be. Aszongya a Firefox:

Did Not Connect: Potential Security Issue
...
Error code: SEC_ERROR_INVALID_TIME

 

Vicces a dologban, hogy az OutLook-ba ba ugyanonnan, vagyis az office.com-ról indulva be tudok lépni. Meg a SharePoint-ba is.  :)