Konfiguracja motioneye (detekcja ruchu i powiadomienia)

motioneye #notifications #mail #motion #detection tapo #camera telegram

Kto pyta nie błądzi, wiele razy mi pomogliście za co bardzo dziękuję.

Udało mi się w końcu dodać kamery Tapo C210 do dodatku Motioneye i uzyskać z nich obraz, nawet udało się w tym dodatku podpiąć dysk sieciowy, który utworzył sobie sam foldery dla danej kamery

Utworzyłem też w Telegramie bota dla powiadomień z Motioneye, bo opcja maila niestety z jakiegoś powodu wywala błąd :man_shrugging: (kiedyś jeszcze podejmę temat na razie ten rodzaj powiadomienia odpuszczam)

Teraz chciałbym sprawdzić, czy te wszystkie ustawienia działają i tak:
Czy detekcja ruchu w Motioneye ustawiona na ON musi być jednocześnie ustawiona też na ON w apce kamerki Tapo, żeby dodatek z HA zaczął zapisywać zdarzenia na dysku sieciowym?
W kamerce mam wsadzone karty pamięci, ale w aplikacji Tapo wyłączyłem taki sposób zapisywania, a może je lepiej wyjąć?

Może ta informacja też będzie ważna, bo w ustawieniach Motioneye kamery mam wyłączona opcję video streaming (ma być włączona?)

Myślę, że jak zadziała zapis detekcji ruchu to z powiadomieniem na Telegram już chyba nie powinno być problemu, bo w ustawieniach tego typu powiadomień jest tylko opcja wpisania tokenu bota i jego ID, więc raczej błędu tutaj nie zrobiłem, bo nawet test wykazał sukces :man_shrugging:

Ktoś ma jakieś sugestie, chętnie przeczytam wszystkie.

BTW zauważyłem, że jak wstawię streaming wysokiej jakości do Motioneye to dodatek bardzo dużo zużywa procesora, też tak macie?

Jedno z drugim nie ma nic wspólnego.

Jeśli zapis na karcie w kamerce nie przeszkadza w pozostałym działaniu to chyba lepiej mieć niż nie mieć?

To zależy co chcesz uzyskać, ale nie streamując z motionEye nie będziesz widział kamer przez niego obsługiwanych w integracji kamer, no chyba że wykorzystasz do podglądu stream bezpośrednio z kamery.

Eksperymenty nie bolą, pobaw się tym, a najlepiej przeczytaj dokumentację zarówno motionEye jak i samego motion (który jest “silnikiem”).

No cóż kompresja wideo jest bardzo zasobożerna… jest kilka możliwych wyjść - można użyć

  • współczesnego procesora klasy i7 czy i9
  • takiego sprzętu i kodeka by dało się wykorzystać enkodery sprzętowe (lektura dokumentacji jest konieczna, bo nie wiem co tam teraz obsługuje motion)
  • pass-thru czyli oglądać stream wejściowy bez rekompresji (to automatycznie uniemożliwia dodanie do obrazu jakiejkolwiek treści - masek, napisów itd.)

Triki jakie ludzie stosują to np. używanie streamu LQ do rozpoznawania ruchu i na tej podstawie zapisywanie wybranych fragmentów HQ bez ich rekompresji.

BTW Dekompresja wideo też jest bardzo zasobożerna o ile nie wykorzystuje akceleracji sprzętowej, dlatego sugeruję jeśli to możliwe użyć w kamerach h264 zamiast h265, a jeśli motionEye pracuje na jakimś starym procesorze to wręcz mjpeg jest wart przemyślenia (o ile w ogóle jest dostępna taka opcja, jakkolwiek sprzętowe dekodowanie h264 powinno być dostępne nawet na nie najświeższym sprzęcie, to jeszcze trzeba brać pod uwagę co potrafi sam motion).

Kompresja jednego streamu h264 720p bodajże w okolicy 30fps z tego co pamiętam zajmuje 1 rdzeń w procku maliny czwórki (kompresowałem ze strumienia RAW kamery podpiętej przez CSI), 1080p przy tych samych pozostałych parametrach wymaga 5x większej mocy obliczeniowej (a rdzenie w malinie są tylko 4 i w dodatku jedne z nich jest potrzebny dla innych “funkcji życiowych” systemu).
To eksperymenty jeszcze na starym motion (o całą generację niższym), teraz jest nowszy, więc może obsługa wsparcia sprzętowego jest lepiej rozwinięta, ale nie mam czasu na zabawy, przez CSI i tak można podpiąć tylko 2 kamery nawet dysponując odpowiednim sprzętem w guście CM4 z odpowiednią płytą główną (coś mam w szufladzie, ale czasu brak…), moc obliczeniowa maliny czwórki jest porównywalna z 4-rdzeniowym celeronkiem 6 generacji core intela (chodzi o J3455, bo to z nim porównywałem).

Wyszukiwanie ruchu też używa procesora, ale analizując obraz o malej rozdzielczości i klatkażu skuteczność wykrywania ruchu jest praktycznie ta sama, więc używając w tym celu streamu LQ możemy sobie zaoszczędzić moc obliczeniową.

PS Linkowanie płotkiem do nieistniejących tagów w treści nie ma sensu

@mgmorpheus - Zanim zmarnujesz (moje zdanie) jeszcze więcej czasu i doktoryzujesz się już z Motoneye, proponuje zainteresować się projektem, który bardzo mocno integruje się z HA, a mianowicie Frigate. Używam od roku i jest to coś czego oczekiwałem w funkcjonalności od lat, jeśli chodzi o monitoring z wykrywaniem i analizą.