Witam, mam na proxmox zainstalowane kilka vm i nie bardzo rozumiem na czym polega przydzielanie rdzeni cpu dla tych VM.
N100 ma 4 rdzenie i mogę dać tylko po 1 na kazde VM , czy mogę dać np VM1 - 1 rdzeń, VM2 - 1 rdzeń, VM3 - 2 rdzenie, VM4 - 2 rdzenie? Ktoś mi łópatologicznie wyjaśni jak to działa?
Myślę, że spokojnie i łopatologicznie wytłumaczy to dowolny asystent AI. To dość powszechna wiedza i możesz dopytywać do skutku, a cierpliwy chat dostosuje język/pojęcia do poziomu wiedzy rozmówcy i kontekstu.
Bez obrazy, ale te AI to takie bzdury wypisują, że w ogóle z tego nie korzystam i odradzam każdemu zdrowo myślącemu.
No, ale na tym obrazku z tego co widzę akurat nie kłamie.
Możesz rozdać więcej niż masz, to ta przewaga wirtualizacji, ale masz to robić zgodnie ze zdrowym rozsądkiem (po to jest możliwość ograniczenia przydzielonej liczby rdzeni).
Zależy co to za maszyny wirtualne, nie da się gdybać, jeśli to coś co potrzebuje ogromnej mocy obliczeniowej i działa wielowątkowo daj mu wszystkie dostępne rdzenie, a reszcie maszyn, które nie są priorytetowe po jednym, no chyba że potrzebują więcej - HAOS do sprawnej i wydajnej pracy potrzebuje 2 rdzenie jako minimum.
Jeśli przekroczysz możliwości obliczeniowe fizycznego procesora to wirtualizacja stanie się kulą u nogi. Słowo kluczowe kolejkowanie.
dzięki, na firewall dałem 1 core, na haos 2 core i na debiana 2 core
Lubię używać Perplexity, bo nie zmyśla ale wyszukuje informacje w Internecie, podając podsumowanie, wnioski i co najważniejsze, wskazuje ich źródła, konkretne linki. Zawsze możesz kliknąć i sam ocenić ich wartość.
Przed epoką AI zdarzyło mi się czytać wywody na różnych forach i nauczony poźniejszym doświadczeniem dziś wiem, że również ludzie często bzdury wypisują.
Bo te AI właśnie się tymi bzdurami żywią ![]()
Będzie jeszcze gorzej, bo niedługo zacznie mnożyć te, które generuje, a ludzie je publikują jako pewnik. Ostatnio gdzieś czytałem o fikcyjnym wynalazcy tostera, który jako eksperyment studencki stworzony został jako postać historyczna na Wikipedii w 2012r. Podobnych przykładów jest sporo.
Poprzez AI powiedzenie “Kłamstwo powtarzane tysiąc razy staje się prawdą” zyskuje nowy wymiar i moc. Tym bardziej powinniśmy się uczyć samodzielnego filtrowania informacji z różnych źródeł.
Tak właśnie będzie wyglądał SKYNET nie wojna atomowa lecz ludzie zagubieni w dezinformacji wypisywanej, czytanej przez AI. Juz dziś widać ludzi piszących swoje, automatyzacjace, skrypty za pomocą AI i rozczarowanie że to powinno działać a nie działa. Inna sprawa to informacje pozyskiwanie z AI gdzie ludzie są przekonani że wiedzą lepiej od kogoś kto spędził szmat czasu nad jakimś zagadniem teoretycznie i praktycznie (waveshare).
Skoro już ciśniemy ten OFF TOPIC to i moje 3 zdania.
Wczoraj rozmawiałem z kolegą z roboty, który właśnie nabrał chęci na uruchomienie HA po “rozmowach” z AI, niestety w wyniku tego niemal za wszystko chciał się brać “od tyłka strony”, bo miał wrażenia odwrotne od rzeczywistości…
(tzn. w dużym stopniu AI musiało być wykarmione danymi sprzed około 5 lat lub starszymi, sam proces karmienia danymi swoją drogą widziałem te kilka lat temu na innym forum, bo najazd legalnych spiderów w maksymalnym stopniu był właśnie mniej więcej wtedy, teraz karmią się znacznie mniej łapczywie, chociaż nawet tutaj ruch generowany przez spidery jest znacznie większy od tego generowanego przez ludzi…).
A wracając do tematu Wikipedii, to jeśli chodzi o tematy techniczne znacznie lepiej korzystać z jej angielskiej wersji, gdzie zagadnienia nie są zwykle aż tak spłycone jak w naszej… Co do wiarygodności, no cóż - zawsze trzeba mieć w głowie jakiś margines błędu, ale nawet w normalnych drukowanych encyklopediach zdarzały się wpadki. Nie o wszystkim mogę pisać, bo ogranicza mnie NDA, ale wykorzystywanie informacji z niewiarygodnych źródeł kończyło się czasem dla niektórych podmiotów sporymi stratami finansowymi.
