Version 1 vs 2
Version 1 vs 2
Content Changes
Content Changes
====== Lemur ======
^ Koordynator | [[:ludzie:pidpawel:start]] |
^ Status | Zakończony. Używany do innych projektów |
"Klaster" "obliczeniowy" z [[https://kanciapa.v-lo.krakow.pl/|Independent State of Kanciapa]]. Moc 10 wątków i 1.5GB RAMu w jednym pięknym festiwalu sklejki wyglądającym jak regał.
Obecnie lemura mizia [[ludzie:q3k:start|q3k]], który wgrał na niego Gentoo, bo mógł.
Na lemurze pojawił się również [[ludzie:pidpawel:|pidpawelowy]] LANChooser.
{{https://fbcdn-sphotos-b-a.akamaihd.net/hphotos-ak-ash3/1040442_431831626923803_2027512807_o.jpg|}}
===== Architektura =====
==== Overview ====
Lemur składa się z jednej jendostki zarządzającej (//master//) i około dziesięciu jednostek podrzędnych (//node//). //master// to komputer z Pentium IV, dwoma interfejsami "Fast"Ethernet i 512MB RAM. //node//'y mają po jednym rdzeniu klasy Pentium III i po 128-256MB RAM.
Po uruchmieniu się, //master// wystawia po interfejsie lokalnym (//server0//) do switcha w szafie środowisko PXE (DHCPd + atftp) z pxelinux. Domyślnie z niego uruchamia się system operacyjny //node//'a. //node// montuje po NFS root //master//a w trybie read-only, overlayuje na nim parę tmpfsów żeby całość nie wybuchła przy dalszym bootowaniu, i uruchamia dalej system.
==== boot & init ====
Procedura uruchamiania //master//a i //node//'ów jest bardzo podobno - obydwa się uruchamiają z Gentoowskiego OpenRC, i w zalezności od linii poleceń kernela (parametr //terminalserver// albo //node//) uruchamiają po runlevelu //default// runelvel //terminalserver// albo //node//. Dodatkowo w runlevelu //boot// (przed runlevelem //default//) znajduje się skrypt //localtmpfs// który montuje tmpfsy //master//a i //node//'ów (też w zależności od cmdline kernela).
==== Prezencja maszyn ====
Wszystkie maszyny w klastrze uruchamiają dodatkowo skrypt w /etc/local.d/ któryu ogłasza och obecność w klastrze w LANie szafy. Rozgłaszanie odbywa się przez Avahi/mDNSResponder jako usługa //_clutster-node._udp//. W /usr/local/bin znajdują się przykładowe skrypty listujące //node//y.
==== Rozpraszanie zdań ====
TODO: zrobić logowanie do maszyn po SSH po kluczu/kerberosie.
====== Lemur ======
^ Koordynator | [[:ludzie:pidpawel:start]] |
^ Status | Zakończony. Używany do innych projektów |
"Klaster" "obliczeniowy" z [[https://kanciapa.v-lo.krakow.pl/|Independent State of Kanciapa]]. Moc 10 wątków i 1.5GB RAMu w jednym pięknym festiwalu sklejki wyglądającym jak regał.
Obecnie lemura mizia [[ludzie:q3k:start|q3k]], który wgrał na niego Gentoo, bo mógł.
Na lemurze pojawił się również [[ludzie:pidpawel:|pidpawelowy]] LANChooser.
{{https://fbcdn-sphotos-b-a.akamaihd.net/hphotos-ak-ash3/1040442_431831626923803_2027512807_o.jpg|}}
===== Architektura =====
==== Overview ====
Lemur składa się z jednej jendostki zarządzającej (//master//) i około dziesięciu jednostek podrzędnych (//node//). //master// to komputer z Pentium IV, dwoma interfejsami "Fast"Ethernet i 512MB RAM. //node//'y mają po jednym rdzeniu klasy Pentium III i po 128-256MB RAM.
Po uruchmieniu się, //master// wystawia po interfejsie lokalnym (//server0//) do switcha w szafie środowisko PXE (DHCPd + atftp) z pxelinux. Domyślnie z niego uruchamia się system operacyjny //node//'a. //node// montuje po NFS root //master//a w trybie read-only, overlayuje na nim parę tmpfsów żeby całość nie wybuchła przy dalszym bootowaniu, i uruchamia dalej system.
==== boot & init ====
Procedura uruchamiania //master//a i //node//'ów jest bardzo podobno - obydwa się uruchamiają z Gentoowskiego OpenRC, i w zalezności od linii poleceń kernela (parametr //terminalserver// albo //node//) uruchamiają po runlevelu //default// runelvel //terminalserver// albo //node//. Dodatkowo w runlevelu //boot// (przed runlevelem //default//) znajduje się skrypt //localtmpfs// który montuje tmpfsy //master//a i //node//'ów (też w zależności od cmdline kernela).
==== Prezencja maszyn ====
Wszystkie maszyny w klastrze uruchamiają dodatkowo skrypt w /etc/local.d/ któryu ogłasza och obecność w klastrze w LANie szafy. Rozgłaszanie odbywa się przez Avahi/mDNSResponder jako usługa //_clutster-node._udp//. W /usr/local/bin znajdują się przykładowe skrypty listujące //node//y.
==== Rozpraszanie zdań ====
TODO: zrobić logowanie do maszyn po SSH po kluczu/kerberosie.