Mirroring określonej strony internetowej? [Zamknięte]

9

Mam konkretną stronę, do której chcę skierować użytkowników, którzy mają problemy z DNS:

Jak zdiagnozować, że nie mogę dotrzeć do określonej witryny jako użytkownik końcowy?

Istnieje jednak haczyk - użytkownicy, którzy mają problemy z DNS, mogą nie być w stanie wejść na nasze strony i przeczytać tej strony!

Potrzebuję zatem niezawodnego długoterminowego serwera lustrzanego tej strony w innej domenie, za darmo lub jako usługa płatna. Idealnie, taki, który okresowo sprawdzałby źródło i aktualizował go również przy wszelkich zmianach.

Znalazłem usługi tworzenia kopii lustrzanych zbudowane przez społeczność, aby witryny były „odporne na Digg” lub „odporne na Reddit”, ale są one ad hoc i nie gwarantuje się, że będą działać przez długi okres.

Czy są jakieś aplikacje internetowe, które oferują niezawodne długoterminowe dublowanie poszczególnych stron internetowych? Lub jakakolwiek inna aplikacja internetowa, której mogę użyć, aby osiągnąć tę funkcjonalność?

Jeff Atwood
źródło
Pamiętasz fireballed.org ?
digitxp 16.01.11

Odpowiedzi:

6

Jedyną częściowo niezawodną rzeczą, o której mogłem pomyśleć, było linkowanie do strony w pamięci podręcznej Google:

http://webcache.googleusercontent.com/search?q=cache%3Ahttp%3A%2F%2Fsuperuser.com%2Fquestions%2F231977%2Fhow-do-i-diagnose-not-being-able-to-reach-a- konkretna strona internetowa jako użytkownik końcowy

Ale nie możesz kontrolować, jak często jest aktualizowany itp. Ponadto nie jest to najładniejszy z identyfikatorów URI (chociaż zawsze istnieje skrócony link ). A buforowany przez Google schemat URI zmieniał się na przestrzeni lat. Być może użycie podstawowego zapytania google.com z operatorem pamięci podręcznej byłoby bardziej niezawodne.

jaredg
źródło
5

Jeśli użytkownicy mają problemy z DNS, prawdopodobnie nie będą w stanie rozwiązać żadnych nazw hostów. Z tego powodu żadne dublowanie nie pomoże, ponieważ każde dublowanie nadal wymaga wyszukiwania DNS, aby rozpoznać (http: // coś / jakąś stronę) na adres IP.

Tak więc bezpiecznym sposobem na awarię jest podanie adresu surowego (np. 164.34.119.12/page ). Nie działa to jednak z wirtualnymi hostami. W takim przypadku adres IP, na który tłumaczy superuser.com, jest również używany do przepływu stosu, a serwer sieciowy nie wie, dla której witryny jest żądane.

Więc zaczynając od

superuser.com/questions/231977/how-do-i-diagnose-not-being-able-to-reach-a-specific-website-as-an-end-user

Możemy ominąć wyszukiwanie DNS za pomocą 64.34.119.12/questions/231977/how-do-i-diagnose-not-being-able-to-reach-a-specific-website-as-an-end-user ... ale na serwerze WWW z wieloma witrynami nastąpi przejście do domyślnej strony internetowej (w tym przypadku powstanie strona w przepełnieniu stosu).

Ostatni krok: na serwerze musisz skonfigurować reguły proxy, aby przekierować żądanie. Zmieniając adres URL na coś w rodzaju 64.34.119.12/superuser/question , możesz skonfigurować regułę na serwerze WWW, aby przekazywać żądania do właściwej witryny.

Twój wynikowy adres URL wygląda wtedy jak http://64.34.119.12/superuser/questions/231977/how-do-i-diagnose-not-being-able-to-reach-a-specific-website-as-an-end- użytkownik

Będzie to wymagać zmiany konfiguracji serwera, aby przekierować adres URL do właściwego hosta wirtualnego. Całkowicie obejmie również wszelkie problemy z DNS.

Paul O'Reilly
źródło
4

Kontynuacja czatu ...

Myślę, że najlepszą metodą będzie sprawdzanie stanu, w którym jeśli wykryje, że witryna jest uruchomiona, może wyświetlać pomocne wskazówki / kopię odpowiedzi.

Zrobiłem przykładową stronę, która pokazuje, co mam na myśli - bez żadnego stylu / efektów Ajaxy. Można go obejrzeć na stronie http://ezpcinternal.com/v2.aspx

wilhil
źródło
2

Dlaczego nie stworzyć prostego skryptu powłoki, który działa na zadaniu CRON i automatycznie tworzy lokalne dublowanie strony przy użyciu wbudowanej funkcji dublowania wget ?

Może coś takiego:

#!/bin/bash
rm -rf ./mirror
wget -E -H -k -K -p -P ./mirror "/superuser/231977"

Folder „lustrzany” może być dowiązany symbolicznie do folderu obsługiwanego przez serwer WWW, który jest bezpośrednio dostępny przez adres IP, aby wyeliminować wszelkie wątpliwości związane z DNS.

segfault
źródło
oczywiście, ale myślę bardziej w kategoriach komercyjnych centrów danych innych niż nasze i innych firm
Jeff Atwood
Och, myślałem, że to tylko w celu uniknięcia problemów z DNS, więc poszedłem z Razor Razor. I oczywiście cena jest odpowiednia. :)
segfault
2

Patrzyłem na używanie Google App Engine jako mojej własnej sieci CDN i znalazłem tutaj fajny artykuł na temat tego, jak to zrobić

http://www.digitalistic.com/2008/06/09/10-easy-steps-to-use-google-app-engine-as-your-own-cdn/

Jestem pewien, że dość łatwo jest również hostować tę stronę lub strony, prawdopodobnie może nawet użyć usług internetowych, aby połączyć się z Twoją witryną w celu przeprowadzenia aktualizacji lub integracji w czasie rzeczywistym. To nic nie kosztuje i jestem pewien, że będzie jeszcze jakiś czas.

Geoffry Brown
źródło