Obecność AI w Home Assistant to już fakt i nie unikniemy wykorzystywania tego rodzaju narzędzi jak LLM. Jeśli (prawdopodobnie) nie będzie nam dane z AI wygrać, to trzeba je poznać i wykorzystać (do póki się daje). Powstał niesamowity projekt, który dzięki Model Context Protocol (MCP), pozwala na ścisłe zintegrowanie instancji HA z wybranymi modelami LLM.
Prowadzisz konwersację w naturalnym języku a agent LLM, mając dostęp do wszystkich ustawień, konfiguracji twojego HA, może w locie (przez API HA) zmieniać dosłownie wszystko. Tworzyć automatyzacje, sceny, czy analizować kod YAML każdego z elementów systemu. Szukać błędów, debugować czy wykorzystywać OCR (zrzuty z kamer).
Daje to niezwykłe możliwości ingerencji i ingerencji. W przypadku HA ogranicza nas zawsze tylko wyobraźnia i zasób portfela. Kiedyś dodawałem jeszcze wiedza, ale w tej sytuacji wystarczy ta opanowana w dziedzinie wykorzystywania narzędzi AI i jak zawsze ogólna-techniczna.
Usługa serwera MCP jako AddOn czyli obecnie Aplikacja
Projekt wręcz eksplodował patrząc, po statystykach:
Tu należy podać różnice pomiędzy natywnym serwisem (integracją) MPT w HA, a tym nieoficjalnym kontenerem aplikacji (AddOn), czy też zupełnie zewnętrznie hostowanym serwerem MPT :
Oficjalna integracja MCP Server w HA
To standardowa integracja w Home Assistant: dodajesz ją w „Urzadzenia i usługi” i konfigurujesz z poziomu UI.
Jej główny cel: pozwolić HA korzystać z zewnętrznych serwerów MCP jako narzędzi dla Asystenta (Assist), np. MCP od wyszukiwania w sieci, pamięci, itp.
Kontrola HA przez LLM odbywa się nadal przez Assist API – integracja daje warstwę pośrednią i kontrolę, jakie encje/usługi są wystawione.
Jest częścią ekosystemu HA, z naciskiem na bezpieczeństwo, uprawnienia, integrację z istniejącym Asystentem.
Nieoficjalny ha-mcp (homeassistant-ai/ha-mcp)
To osobny projekt społeczności: „The Unofficial and Awesome Home Assistant MCP Server”.
Uruchamiasz go jako proces / Docker / uv na swojej maszynie i podajesz mu HOMEASSISTANT_URL + HOMEASSISTANT_TOKEN – łączy się z HA po API.
Zaprojektowany głównie pod Claude Desktop, Claude Code, ChatGPT, Gemini, VS Code, Cursor, Open WebUI itd. – ma gotowe skrypty instalacyjne i setup wizard dla wielu klientów.
Oferuje ogromny zestaw narzędzi (82+ tools): pełne zarządzanie automacjami, skryptami, dashboardami, helperami, grupami, strefami, backup/restore, update’y, logbook, historia, ZHA itd. – nie tylko podstawowe on/off.
Kluczowe różnice (tabela)
Cecha
MCP Server (integracja HA)
ha-mcp (homeassistant-ai)
Status
Oficjalna integracja HA
Nieoficjalny projekt społeczności
Gdzie działa
Wewnątrz Home Assistant
Osobny serwer łączący się po API z HA
Główny cel
Używanie zewnętrznych MCP w HA (Assist)
Pełna kontrola HA przez klientów MCP (Claude, ChatGPT itd.)
Instalacja
Dodanie integracji w UI HA
uv / Docker / skrypty, konfiguracja URL + token
Zakres funkcji
Ekspozycja narzędzi MCP do Assist
Bardzo szerokie narzędzia: encje, automacje, dashboardy, backup itd.
Nastawienie
Integracja z Assist, bezpieczeństwo, uprawnienia
UX pod LLM-y, szybki start, wizard dla wielu klientów MCP
Jeśli chcesz, aby Assist w HA używał zewnętrznych MCP (np. serwera od pamięci, web-search) – patrz integracja mcp_server w HA.
Jeśli chcesz, aby Claude / ChatGPT / inny klient MCP mógł ogarniać i konfigurować Twojego Home Assistanta (tworzyć automacje, dashboardy, analizować problemy) – użyj ha-mcp i dodaj go jako MCP server w kliencie AI.
UWAGA! to jest potężne narzędzie, ściślej ich duży zbiór (lista poniżej) i może psuć Twój system jeśli nie wiesz jak go używać.
Lista narzędzi (82+)
Poniższa tabela bazuje na pełnej liście z dokumentacji projektu – narzędzia pozwalają AI na zaawansowane operacje na HA.