Post

Trochę historii.

Historia homelaba brata.

Kilka lat temu przygotowywałem się do przeprowadzki do nowego domu.

Założenia były proste: chcę mieć sieć i Internet na wyższym poziomie, niż miałem w mieszkaniu. Błędnie założyłem lata temu, że Wi-Fi jest wystarczające. Niestety, z czasem, okazało się, że w pokojach oddalonych od rutera (który był ustawiony na środku mieszkania), zasięg nie jest wystarczający. Dodatkowo, jak to w mieszkaniach, nie za bardzo można było wygospodarować miejsce na postawienie komputera (nawet w wersji SFF). Próbowałem ratować sytuację korzystając z Raspberry Pi, ale nie było to rozwiązanie ani wydajne, ani wygodne. Dlatego też, jak się okazało, że można zaprojektować sieć od nowa, wiedziałem na co zwrócić uwagę.

Ale okazało się (cóż za szok!), że wcale to nie jest proste… Co się naczytałem, co naoglądałem na youtube, to moje.

Wymagania:

  1. Każdy pokój powinien mieć 2 wyprowadzenia LAN
  2. Każdy TV powinien mieć wyprowadzenie LAN
  3. Przy głównym TV w salonie – powinny być wyprowadzone 4 kable (o tym więcej niżej)
  4. Żeby zapewnić mocny sygnał Wi-Fi na suficie chce access pointy.

Po przedstawieniu założeń elektrykowi, ustaliliśmy, że najlepszym rozwiązaniem będzie zrobić sieć w topologii gwiazdy, z punktem zbiegu kabli na poddaszu. Tam ustawić małą szafkę teletechniczną, wrzucić przełącznik, ruter, modem od ISP. Po osiągnięciu tego kamienia milowego – nadszedł czas na ustalenie, jaki sprzęt będzie potrzebny. Wiedziałem, że zależy mi na wysokiej jakości, bo nie chciałem się wprowadzić do nowego domu i słuchać narzekań, że Internet działa źle.

Najpierw myślałem nad sprzętem MikroTika. Strasznie mi się podobał ich przełącznik CRS328-24P-4S+RM. Do tego myślałem, żeby wziąć ich punkty dostępowe – cAP ac. Miałem problem ze znalezieniem sensownego routera. Z jednej strony był RB3011UiAS-RM, Audience, RB4011iGS+RM. Z drugiej – korciło mnie ustawić pFsense/OPNSense. Trochę obawiałem się konfiguracji sprzętu MikroTik, opinia o tych sprzętach jest taka, że są solidne, ale ich obsługa wymaga trochę nauki. Udało mi się uzyskać komputer, który planowałem użyć jako ruter / serwer. Był to Fujitsu RX100S7 wyposażony w 16 gb ramu, E3-1220 v2, wszystko zamknięte w obudowie 1U. Czemu ten? Szukałem Dell’a R210 II, była to jednostka preferowana przez jutuberów i reddita. Niestety w Polsce ten model jest zaskakująco drogi, a Fujitsu który znalazłem miał identyczną specyfikacje jak R210II. Na korzyść Fujitsu były dwie zatoki 3,5” hot-swap dostępne z przodu serwera, 3 sloty PCI-E oraz dwa gniazda LAN + jedno IPMI.

Po jakimś czasie okazało się, że mam możliwość wejścia w sprzęt Ubiquiti, więc sprawę zamknąłem szybko i sprawnie. UDM Pro, do tego Switch Pro 24 POE + 2x U6 lite.

Co oznacza, że zostałem z komputerem, który można wykorzystać na serwer domowy. Nie wiem czemu, ale w tamtym okresie nie byłem fanem Proxmoxa, Esxi wydawał się skomplikowany, OpenMediaVault mało dopracowany. Brałem pod uwagę FreeNas (teraz ze zmienioną nazwa na TrueNAS) i UnRaid. Nie ukrywam, że na moją decyzję wpłynął znowu youtube. Ilość poradników i filmów o UnRaid przekonała mnie do tego systemu.

Wszystko działało bardzo dobrze i przede wszystkim stabilnie. Po jakimś czasie zaczęły wychodzić jednak ograniczenia używanego komputera. W związku z wykorzystaniem starej generacji CPU – musiałem używać GPU (Quatro P400) do dekodowania wideo przy używaniu usług typu Plex. Dodatkowo serwer 1U potrafił być głośny, zwłaszcza w lecie.

Dlatego podjąłem decyzję na zmianę. Na co zmieniłem?

Obudowa bardzo polecana pod systemy NAS, niewielki rozmiar, duże wiatraki zapewniające ciche działanie.

Jako, że CPU obsługuje QuickSync mogłem zrezygnować z dedykowanych kart graficznych, co pozwoliło ograniczyć pobór prądu.

Obyło się bez reinstalacji systemu, po przeszczepie dysków i pendrive z systemem (tak, UnRaid odpala się z pendrive) wszystkie usługi działały jakby nic się nie stało. Fujitsu znalazł nowego właściciela, który jeszcze przez długi czas będzie mógł skorzystać z jego potencjału.

Minęło kilka miesięcy.

Zaczął mi doskwierać fakt, że nie mam wdrożonej dobrej strategii na backupy. Jak wszyscy wiemy – raid to nie backup. Dlatego też zacząłem się rozglądać za rozwiązaniami. Znalazłem kilka, co gorsze, wydawało mi się, że muszę zastosować więcej niż jedno:

  • Dedykowany NAS
  • Dedykowany zdalny NAS
  • Dedykowany lokalny komputer
  • Dedykowany zdalny komputer
  • Chmura

Szczęśliwie, okazało się, że w domu rodzinnym stoi jeden nieużywany komputer. Przyjrzałem się co siedzi w środku, powiem wam, że demon prędkości to nie jest.

W środku znalazłem:

Ktoś mógłby powiedzieć, że trup, ale na potrzeby testów – nada się w sam raz. Jedyna usługa jaką potrzebowałem to było SSH (do połączenia z shellem i połączeń SFTP). Wrzuciłem tam Ubuntu LTS, dorzuciłem portainer (na przyszłość), kontener do DDNS i testowałem zdalne połączenia z różnych usług backupowych (kopia, duplicati, etc).

Mimo przepracowanych lat, wszystko działa zaskakująco stabilnie. Wiadomo, że docelowo będę musiał zmienić dysk na nowy, ale patrząc na to co planuje z nim robić – nie trzeba innych inwestycji. Na minus – komputer w idle żłopie około 35 watów, dlatego też będę musiał go ustawić, żeby uruchamiał się tylko w określonych momentach, żeby przyjąć transfery backupów. Najpewniej załatwię to przy pomocy smart-gniazdka i ustawieniu w BIOSie, że serwer uruchamia się za każdym razem, kiedy jest podane napięcie.

Aktualnie czekam na dostawę kolejnego komputerka, który będzie moim “codziennym” serwerem. Jako, że zależało mi na energooszczędności, wybrałem HP Elitedesk G3 800 SFF. I to właśnie on będzie głównym bohaterem następnych wpisów na tym blogu.

This post is licensed under CC BY 4.0 by the author.