Jestem nowy, a także nowy 19-letni programista PHP, który właśnie został zatrudniony, więc nie jestem pewien, jak to działa. Wiele firm opracowując swoje strony internetowe nie indeksuje swoich witryn. Jakie są sposoby ukrywania pracy html5 / css, a następnie php / mysql w wyszukiwarkach? Jeśli się nie mylę, są to następujące techniki:
Programowanie offline: używanie lokalnego magazynu do renderowania html / css; nie jestem pewien, jak PHP / mysql by z tym działało.
Używanie .htaccess, aby uniemożliwić dostęp
Korzystanie z VPN, aby uniemożliwić dostęp.
Odpowiedzi:
Najlepszą praktyką jest przybliżenie stosu produkcyjnego na lokalnym komputerze dewelopera. Zwykle obejmuje to bazę danych, serwer WWW i dostosowany kod. Zrób tam cały swój rozwój. Nigdy nie edytuj kodu na serwerze produkcyjnym.
Gdy interesariusze biznesowi będą gotowi do uruchomienia tej funkcji, przenieś kod z komputera lokalnego na serwer produkcyjny. Możesz użyć serwera testowego, aby wewnętrzni interesariusze mogli wyświetlić podgląd zmian przed uruchomieniem.
Do zarządzania kodem należy używać systemu kontroli wersji. Git i Mercurial to solidne opcje.
źródło
Samo proszenie pająków wyszukiwania o nieindeksowanie witryny jest bardzo słabą obroną, jeśli w ogóle istnieje.
Zwykle można to zrobić w następujący sposób:
, Jak chcesz ustawić te rzeczy: Jeśli prowadzisz godnej * nix dystrybucji, pochodzi z menedżera pakietów (
apt
,port-install
,rpm
, itd.); użyj tego, aby zainstalować potrzebne komponenty i przeczytaj dokumentację. Poproś sysadmin o pomoc, jeśli sam nie możesz tego zrozumieć.źródło
W przypadku uprzejmych robotów indeksujących (tj. Dowolnej większej wyszukiwarki) możesz zaoferować
/robots.txt
plik z:Oczywiście ma to jedynie charakter doradczy i nie uniemożliwia osobom odwiedzającym witryny, jeśli znają adres URL. Lepszym rozwiązaniem jest umieszczenie witryny za jakimś loginem, jeśli potrzebujesz dostępu z Internetu w całości lub po prostu hostujesz serwer na wewnętrznym serwerze internetowym.
źródło
W duchu „wchodzenia z większą wiedzą”:
HTML / Css można ukryć za pomocą
robots.txt
, ale pamiętaj, aby zmienić te pliki, gdy wypchniesz witrynę do produkcji.robots.txt
nie uniemożliwia przypadkowej osobie odgadnięcia strony programistycznej (jeśli jest widoczna dla całego świata)..htaccess
może być użyty do dodania nazwy użytkownika / hasła do dowolnej rozwijanej witryny.Oto przykład wykorzystania VPN:
Wszystkie żądania w sieci VPN przechodzą przez zaporę ogniową. Ta zapora ogniowa (działająca na oprogramowaniu takim jak pfSense ) sprawdza żądania stron internetowych i dokonuje przekierowań na podstawie adresu URL. Na przykład adres URL http: //example.com.staging przekieruje do wersji example.com na serwerze pomostowym, a adres URL http: //example.com.development przekieruje do wersji example.com na serwerze programistycznym.
Ponieważ wszystko to odbywa się na prywatnej sieci VPN, żadna z tych stron nie jest dostępna ze świata zewnętrznego.
Ponadto, aby wyjaśnić niektóre rzeczy w swoim pierwotnym pytaniu. Prace php / mysql są wykonywane po stronie serwera , więc roboty indeksujące, przeglądarki itp. Nigdy nie widzą kodu - widzą tylko wynik kodu (to znaczy, jeśli poprawnie skonfigurowałeś serwer i nie renderujesz pliki .php jako tekst).
Jestem pewien, że źle odczytałem twoje pytanie, ale uznałem, że użycie wyrażenia „pamięć lokalna” jest niejednoznaczne. LocalStorage może także odnosić się do technologii HTML5 służącej do lokalnego przechowywania zasobów na komputerze klienta. Nie służy do renderowania html / css, jest to tylko magazyn danych (przeglądarka renderuje html / css). Lokalna pamięć masowa zazwyczaj nie ma nic wspólnego z tym, jak firmy ukrywają witryny podczas tworzenia.
Pliki PHP można wyświetlać lokalnie, jeśli na komputerze działa serwer WWW, a pliki znajdują się w odpowiednich katalogach (zwykle w
htdocs
katalogu, jeśli uruchomiony jest Apache).źródło
Wyszukiwarki działają przy użyciu pająków : skryptów przeszukujących sieć z jednego linku do drugiego. Jeśli Twoja witryna jest nowa i nie ma linków do niej z innych źródeł, nic Cię nie znajdzie. To plus plik robots.txt skonfigurowany tak, aby powstrzymać pająka, który w jakiś sposób wędruje po Twojej witrynie, nie powinien go przejrzeć.
źródło