Cześć, od jakiegoś czasu mam taki błąd przy ładowania zmian w Node Red, ten błąd jest tylko przy odpalaniu NodeReda z zewnątrz - używam DuckDNS. Przy bezpośrednim połączeniu HA nie ma tego.
Nic nie mogę zrobić poza domem w NodeRed
Co może być problemem?
Też tak się domyśliłem, da się to jakoś naprawić? zrobiło się to uciążliwe
Doraźne rozwiązanie to ograniczenie zbędnych nodów do ilości około 1200szt, szkoda, bo trzeba było usunąć kilka fajnych flow, na których się wzorowałem
Mnie tez dopadło, przy połączeniu z zewnątrz.
Wychodzi, że powyżej 1MB nie przesyła i nie przechodzi Deploy
Po usunięciu nodów, Deploy działa prawidłowo.
Znalazłem w sieci że można w konfiguracji zwiększyć rozmiar danych, ale nie wiem czy dotyczy to naszej konfiguracji w HA
certfile: fullchain.pem
cloudflare: false
customize:
active: false
default: nginx_proxy_default*.conf
servers: nginx_proxy/*.conf
domain: xxxxxx.duckdns.org
hsts: max-age=31536000; includeSubDomains
keyfile: privkey.pem
W logach NGinx
2022/05/22 23:14:53 [error] 253#253: *3137 client intended to send too large body: 1049457 bytes,
client: 16x.xxx.xxx.164, server: xxxxxxxxxx.duckdns.org,
request: "POST /api/hassio_ingress/jImAVZlEPAGSFY4ZMhKq0Ys4kpXdUtEZkxrqUtKVr2c/flows HTTP/1.1", host: "xxxxxxxxxxx.duckdns.org",
referrer: "https://xxxxxxxx.duckdns.org/api/hassio_ingress/jImAVZlEPAGSFY4ZMhKq0Ys4kpXdUtEZkxrqUtKVr2c/"
Dzięki,
znalazłem jeszcze takie rozwiązanie, będę testował co pomoże.
Cześć, udało się coś zdziałać? czekam z niecierpliwością na info
W konfiguracji NGINX
zmieniamy z false na true
customize:
active: true
w lokalizacji
\\192.168.xxx.xxx\share
umieszczamy plik .conf
a w nim wpis
client_max_body_size 100M;
(można zmniejszyć rozmiar pod siebie)
po resecie dodatku NGINX
Deploy przechodzi prawidłowo.
Mowa tu o dostępie z zewnątrz.
Przy połączeniu po IP wewnętrznym problem nie występował.