Czy możemy użyć wyrażenia regularnego w pliku robots.txt do blokowania adresów URL?
Mam kilka dynamicznie generowanych adresów URL. Czy mogę użyć wyrażenia regularnego, aby zablokować te adresy URL w pliku