Rozdzielczość obrazu z kamery i fps w ffmpeg

Cześć

Mam kilka kamer Tapo (7szt). Chcę mieć z nich szybki podgląd w HA. Mam w związku z tym pytanie czy można ustawić maksymalną rozdzielczość i maksymalne fps w których będzie wyświetlany obraz z danej kamery korzystając z ffmpeg?
przykładowy kod z configuration.yaml

camera:
-   platform: ffmpeg
    name: kamera1
    input: rtsp://admin:password@192.168.1.22:554/stream2

Tylko jak w powyższy sposób dodaję kamerę do HA to widzę obraz z wszystkich kamer. Jak dodaję przez motionEye w którym można (custom) rozdzielczośc i fps to nie mogę dodać więcej niż 6 kamer od tplinka i przez to nie korzystam z motionEye.
Jakiś pomysł?

p.s. chcę ustawić rozdzielczość (200x120) i fps=8 wyświetlanych kamer bo tylko w taki sposób odciążam procka i mogę błyskawicznie załadować zdalnie obraz z wszystkich kamer.

Polecam przejście na komponent z HACS:

Wykorzystuje inną technologię do wyświetlania płynie strumieni w specjalnej karcie typu custom:webrtc-camera Daje sporo możliwości konfiguracji samego komponentu jak i karty dla obrazu kamery. Oprogramowanie jest obecnie dobrze dopracowane pod użytkownika i pozwala w dość prosty sposób nawet na diagnostykę poprawności konfiguracji. U mnie obecnie 5 kamer po RTSP bez problemowo i lagów.

Możesz również użyć oficjalnej integracji:

2 polubienia

Dzięki za odpowiedź. Dzisiaj sprawdzę Twoje rozwiązanie.