Jak tworzysz kopie zapasowe swoich stron internetowych?

16

Zastanawiałem się, jak społeczność tworzy kopie zapasowe swoich witryn?

Wykonuję nocne zrzuty bazy danych i przenoszę ją na inny serwer, który następnie jest archiwizowany na nośniku wymiennym. Jest dość zautomatyzowany i wydaje się działać, ale chciałbym usłyszeć, co mają do powiedzenia inni.

Toby
źródło
możliwy duplikat webmasters.stackexchange.com/q/1782/1160
Talvi Watia

Odpowiedzi:

3

Kod witryny znajduje się w Subversion, które z kolei jest tworzone co noc. Każde opracowanie kodu odbywa się na dedykowanych serwerach programistycznych. Produkcja jest aktualizowana dopiero po przetestowaniu nowej wersji.

Kopie zapasowe zawartości relacyjnych baz danych są wykonywane co noc.

Niektóre z naszych witryn mają ogromną ilość treści statycznych (obrazy, pliki pdf itp.), A te są przechowywane w macierzach SAN RAID5, są dublowane w jednostce zewnętrznej i na wszelki wypadek mają kopie zapasowe taśm.

Nie tworzymy kopii zapasowych plików dziennika, ponieważ nie polegamy na nich zbyt wiele.

Kris
źródło
Sugerowałbym również VCS, takie jak Suberversion, Bazaar, Mercurial, Git itp.
fwaechter
3

Nightly DB Zrzut do pliku

Zrzut nocnych uprawnień DB do pliku ( Maatkit )

Użyj Tarsnap do tworzenia kopii zapasowych zrzutów DB poza bazą i wszystkiego w / var / www /

intlect
źródło
1

Jedną z opcji, których użyłem na kilku stronach, jest użycie SyncBack, JungleDisk i konta Amazon S3. (Zamieszczam linki do tych produktów i usług, ale SE zabrania nam nowych użytkowników zamieszczania więcej niż jednego linku. Boo.)

Dla tych, którzy nie znają tych narzędzi, SyncBack jest niesamowitym i bardzo bogatym w funkcje programem do synchronizacji plików między różnymi folderami. JungleDisk pozwala ci stworzyć wirtualny dysk, który za kulisami odczytuje i zapisuje dane do usługi pamięci masowej Amazon S3, która jest chmurowym rozwiązaniem pamięci masowej, które jest dość przystępne cenowo (zakładając, że nie przesuwasz gigabajtów danych do chmury każdego dnia ).

SyncBack działa zgodnie z harmonogramem, na przykład raz w nocy lub raz w tygodniu, i kopiuje nowe / zmienione pliki z lokalnego dysku twardego na dysk wirtualny JungleDisk i usuwa wszelkie usunięte pliki z dysku wirtualnego.

Co przechowujemy w chmurze? Cóż, mamy SQL Server wykonujący co noc tworzenie kopii zapasowych i skonfigurowaliśmy go tak, aby przechowywał te kopie zapasowe przez dwa tygodnie. Te kopie zapasowe są przenoszone co noc do chmury. Co noc zwiększamy również nasze repozytoria kodu źródłowego. Pełna kopia zapasowa plików statycznych, zasobów, narzędzi i innych takich plików jest wykonywana co tydzień.

Zaletą tego podejścia jest to, że wszystkie pliki są w chmurze, co oznacza, że ​​możemy uzyskać do nich dostęp z dowolnego miejsca. Nie ma potrzeby RDP na serwerze dedykowanym, jeśli masz JungleDisk na pulpicie - możesz zobaczyć pliki w chmurze, jakby były na dysku na komputerze lokalnym. Kolejną korzyścią jest koszt. Dla jednego z moich klientów firma hostingowa, która hostuje witrynę, będzie sprzedawać usługę tworzenia kopii zapasowych poza siedzibą swoim dedykowanym klientom serwera, ale koszty wyniosły kilkaset dolarów miesięcznie. Podejście to wiązało się z pewnymi kosztami wstępnymi - licencjami SyncBack i JungleDisk - a także kosztami przestrzeni dyskowej i przepustowości z Amazon S3, ale, jeśli dobrze pamiętam, koszty te były niższe niż koszt miesięcznego planu tworzenia kopii zapasowych firmy hostingowej. W ten sposób nie musimy brać firmy hostingowej ”

(Przedstawiłem to podejście mojemu koledze Michaelowi Campbellowi .)

Scott Mitchell
źródło
1

Oprócz Subversion, nocnych zrzutów MySQL i nadmiarowego (lustrzanego) obrazu serwera, rozpieszcza nas host (AISO.NET), który także co godzinę wykonuje migawki w ramach wszystkich swoich pakietów hostingowych. Nie tylko czuję się dobrze z hostingiem w firmie, która nigdy nie korzystała z energii elektrycznej z sieci (zasilają cały obiekt energią słoneczną i wiatrową na miejscu), ale mam też poczucie spokoju i niezawodności odzyskać migawki ORAZ zwirtualizowane rozwiązanie, które ponownie uruchamia się dosłownie w mgnieniu oka, jeśli to konieczne.

Migawka uratowała mój bekon więcej niż raz ... i jest o wiele szybsza niż przechodzenie przez ruchy untar, przebudowy i modlitwy, które pojawiają się wraz z innymi kopiami zapasowymi.

bpeterson76
źródło
0

Dlaczego przechowujesz główną kopię kodu na serwerze WWW? Nie przechowuję na serwerze żadnego kodu ani programów, których nie mogę natychmiast wymienić.

Tworzę kopie zapasowe plików dziennika i danych wejściowych użytkownika za pomocą skryptów napisanych w określonym celu.

usunąć
źródło
Niestety, kod główny jest przechowywany w Git na innych serwerach, kod na serwerze zostanie w razie potrzeby natychmiast zastąpiony.
Toby
0

Mam swój kod gdzie indziej, ale nie zajmie się tworzeniem kopii zapasowych postów na blogu w witrynie na żywo. Mam wspólne konto sprzedawcy Hostgator i naprawdę nie ma wbudowanego automatycznego sposobu tworzenia kopii zapasowych. Właśnie znalazłem, siteautobackup.componieważ mówi, że może wykonać kopię zapasową wszystkiego z poziomu WHN, ale produkt jeszcze nie działa.

malcolm
źródło
Czy nie możesz nawet wejść przez SSH i zrobić mysqldump?
Toby
Nie - HostGator nie zezwala na dostęp SSH, jednak konfigurowanie zadania cron z rekurencyjnym wywołaniem wget przez FTP jest dość proste (jeśli nie masz nic przeciwko ujawnieniu danych logowania).
danlefree,
0

prowadzimy wielojęzyczny system wordpress. naszą strategią jest tworzenie kopii zapasowych baz danych co 12 godzin w odległej przestrzeni, wp-content każdego dnia, public_html co tydzień (lub gdy wprowadzamy poważne zmiany w rdzeniu systemu, takie jak aktualizacja rdzenia wordpress), oraz comiesięczna kopia zapasowa całego katalogu domowego. działa to dobrze z naszym systemem

Poorya Zeynalzadeh
źródło