W dzisiejszych czasach, w dobie wirtualizacji, wszechobecnych chmur - nie ma problemu by postawić serwer z dowolnymi zasobami. Jednak że zasoby kosztują - zaczyna się jednak zawsze od "małych" zasobów - kilka gigabajtów dysku, trochę ram, 1-2 cpu. Potem w miarę wzrostu obciążenia, skomplikowania operacji, upgradu oprogramowania... dodając odpowiednie zasoby (dyski, cory, pamięć). Pytanie jednak - czy znacie jakieś "opensourcowe" mechanizmy pozwalające na planowanie tego?
Coś co będzie zbierać obciążenie ram, vcpu, dysku - i pozwoli automatycznie przewidzieć że np za 4 miesiące będzie potrzeba zwiększenia ramu, albo też dołożenia kolejnych vcpu przy "obecnym" trendzie. Tak by można było planować potrzebne wydatki przy zachowaniu obecnego trendu.
Idealnie jakby potrafiło jeszcze aproksymować trend i od razu alarmować o wychwyceniu anomali (np jeżeli przez 6 miesięcy obciążenie cpu rosło o 30% jednego rdzenia miesięcznie, a w 7 miesiącu wzosło o 50% rdzenia).