M5Stack Atom Echo

Witajcie. To mój pierwszy post na tym forum. Uruchomiłem Atom Echo na moim HA. Problem to nieprawidłowe rozpoznawanie mowy.Jest bardzo kiepsko. Pytanie: Jakiego modelu mowy używacie? Moje ustawienia na Atom Echo są standardowe.
Model: tiny int-8, Lang: pl, Beam size 1
Może macie jakieś doświadczenia z tym urządzeniem. Bardzo proszę o opinie.

Z tego co kojarzę to wygrywają ESPHome do Atom echo i to działa.

Skrót myślowy, nie wiem co zrobiłeś i jak (“punkt widzenia zależy od punktu siedzenia”)? Może jednak warto to zrobić wg tego poradnika:

Szybki poradnik po polsku jak zrobić własne wyrażenie włączające mikrofon “Wake Word” na forum:

Oryginalna instrukcja przygotowana przez zespół HA:

Tak więc Grzegorz do dzieła :slight_smile:, jak się uda proszę opisz swoje doświadczenia i problemy (może coś nie jest uwzględnione w instrukcjach) przy realizacji tego rozwiązania.

Ale ja to wszystko mam uruchomione i działa Robiłem to w/g tego poradnika właśnie. Może źle się wyraziłem. Chodzi mi o to, że to działa badziewnie. Mam w domu dwa głośniki Google Home Mini i to urządzenie nie dorasta im do pięt. Chodzi mi dokładność rozpoznawania mojego głosu. Echo na moje wezwanie reaguje idealnie lecz gdy wydam komendę to w logach widzę jak przekręca moje słowa czego efektem jest brak reakcji. Żeby zapalić lampę muszę niejednokrotnie powtarzać komendę kilka razy aż w końcu załapie. Na koniec dodam, że rozmawiamy o naszym ojczystym języku a nie języku angielskim bo takowy mam w obsłudze Google Home Mini.

Mam działające dwa “atomy”, nie korzystam z własnej komendy tylko z wbudowanej “Ok nabu”. Wszystko spięte przez nabu cas-ę, działa to bardzo fajnie.

Nadal nie rozumiecie o co mi chodzi?
Ja też korzystam z wbudowanej komendy tyle że z “Aleksa”. Na komnde ok abu wzbudzały mi się moje Google Home mini. Chodzi mi o to, że komendy uruchamiające jakieś działanie źle działają. Przykład: Mówię “Aleksa włącz światło w kuchni” a Echo rozpoznaje (widoczne w logu) “Włąsz światło w kuchni”, “Wąt światło w kuchni” itd, itp. Efektem jest brak włączenia światła w kuchni. Zapewniam, że mówię wyraźnie. Nie posiadam żadnych wad wymowy żeby było jasne.

Rozumiem, opisałem Ci jak mam skonfigurowaną i działającą u mnie.

Edit:
Mam dwa google mini.

Nic nie napisałeś. Napisałeś tylko że korzystasz z ok nabu a to nic nie wnosi To tylko słowo wywołujące. Nie ma ono wpływu na jakość rozpoznawania mowy

Więc ja Ci odpowiem. Korzystam z M5Stack Atom Echo, używam własnego słowa wywołującego, korzystam z Nabu Casa i “rozmawiam” z głośnikiem w naszym ojczystym języku.
Mało co prawda z nim gadam, ale tak jak napisał już przedmówca, nie doświadczyłem aby czegoś nie rozpoznawał.
Natomiast porównywanie tego “głośniczka” do Google Mini jest co najmniej zabawne. To co opublikowali developerzy HA dla głośnika Atom Echo, miało na celu zademonstrowanie funkcjonalności jaka się pojawiła w systemie, czyli obsługi głosu. Najpierw z wywołaniem za pomocą przycisku w głośniku, a obecnie za pomocą słowa wywołującego.

Swoją drogą istnieją już przeróbki głośnika Google Mini (sprzętowe) umożliwiające korzystanie z niego w HA.

Onju-voice to bardzo ciekawy projekt. Przedwczoraj wpadł mi w oko. Zamówiłem ATOM Echo z myślą o testach wbudowanego w HA rozwiązania jak i tego z OpenAI. Dziś przyszedł. Wygląda to obiecująco. openWakeWord działa, do Whispera trzeba mówić głośno i z dobrą dykcją a Gosia z Pipera jeszcze się uczy czytać, np. liczbę “23,48” :smile:

edit: przepraszam Gosię, w sumie Asystent Google czyta tak samo, więc to pewnie HA źle wysyła treść do syntezatora.

Użyłeś lokalnego STT (Whisper), który jest bardzo wymagający sprzętowo. W dodatku wybrałeś najniższy model, więc nie ma prawa działać perfekcyjnie. Szczególnie nie radzi sobie z naszymi syczącymi ‘sz’, ‘cz’ itd. Na RPI4 potrafi mielić pół minuty zanim coś wypluje. Z kolei z Nabu Casa, zarówno STT jak i TTS, działają niemalże perfekcyjnie. Jeśli szukasz darmowego rozwiązania, które działa, to jako STT użyj Google Cloud i TTS lokalnego Piper’a. Google Cloud TTS nie udało mi się zaprząc do współpracy. Używa kodeków, których nie wspiera Voice Assistant z HA. Google Cloud jest generalnie płatny, ale ma darmowe limity, które powinny wystarczyć. Piper brzmi trochę sztucznie i z kiepskiego głośnika z Atom’a trochę się rwie, ale jest za darmo. Tu masz linka do Google Cloud STT GitHub - chatziko/ha-google-cloud-stt: Use Google Cloud Speech-to-Text in Home Assistant.

1 polubienie

Witam, AtomEcho i EspHome, voice assistant zainstalowany. Whisper działa nawet na najwyższym modelu bardzo kiepsko. Tak że moim zdaniem nie warto.

INFO:wyoming_faster_whisper.handler: wywąc lampkę biurka

Tyle tu skrótów myślowych i niedopowiedzeń (jak dla mnie osoby technicznej), że Twoja opinia może nie być brana pod uwagę. Jeżeli coś porównujemy/testujemy to należy podzielić sie wszystkimi szczegółami technicznymi.

Trochę odkopuję wątek, gdyż także miałem zamiar zakupić M5Stack Atom Echo do sterowania głosem lokalnie. Niestety jak czytam Wasze opinie to mam spore wątpliwości.

Jednakże osobiście mam obawy czy te Wasze błędnie interpretowane komendy nie wynikają właśnie z wyboru języka polskiego. W końcu jest znacznie trudniejszy w interpretacji niż język angielski i w dodatku na głośnikach również wydajemy polecenia po angielsku.

Według mnie to akurat całkowicie naturalne pytanie. Nikt przecież nie zagłębia się w detale, tylko porównuje pod względem praktycznym tzn, czy dobrze reaguje na głos i jak radzi sobie z rozpoznawaniem mowy.