W mojej witrynie jest kilka stron, które chcę, aby użytkownik mógł odwiedzać tylko wtedy, gdy podam mu adres URL.
Jeśli nie zezwalam na pojedyncze strony robots.txt
, będą one widoczne dla każdego, kto je przegląda.
Moje pytanie brzmi: jeśli nie połączę ich z nigdzie, a przynajmniej z jakiejkolwiek zaindeksowanej strony, czy nadal będą w jakiś sposób dostępne dla robotów?
źródło
Myślę, że masz dobrego robota, który czyta plik robots.txt i postępuje zgodnie z dyrektywą. I inny, który nie jest zgodny z dyrektywą.
A jak zamierzasz podać ten adres URL? E-mailem, używając Facebooka lub Twittera? Wszystkie te usługi indeksują przesłane informacje. Gmail przetwarza otrzymany e-mail, aby wyświetlać reklamy. Twój adres URL zostanie jakoś zaindeksowany.
Niektóre osoby używają paska narzędzi Google Toolbar (lub dowolnego innego paska narzędzi wyszukiwarki). Istnieje opcja (domyślnie zaznaczona, jeśli dobrze pamiętam), która pozwala paskowi narzędzi na wysyłanie wszystkich odwiedzanych adresów URL do Google. Jest to inny sposób, aby Google zobaczył ukrytą sieć. Więc nawet jeśli powiedziałeś tej osobie, aby nie udostępniała adresu URL, domyślnie zrobi to (dzięki paskowi narzędzi).
Myślę, że możemy znaleźć wiele innych możliwości.
Możesz więc dodać go do pliku robots.txt, ale także zapewnić dodatkowe meta, takie jak noindex, nofollow itp.edytować:
Sugestia w3d dotycząca pliku robots.txt wydaje mi się dobra. Nie dodawaj go więc do pliku robots.txt i podaj metatag propre.
źródło
Oprócz powyższych komentarzy chciałbym również polecić uwierzytelnianie HTACCESS jako minimum - w ten sposób możesz nadać osobom indywidualnym kombinację nazwy użytkownika i hasła na czas trwania ich uprawnień do przeglądania stron
Jeśli są jakieś problemy z prywatnością, musisz rozważyć odpowiedni skrypt sterujący logowania.
Niechroniona strona (bez względu na to, jak dobrze ukryta może być), przeniesie ją na wolność.
źródło