Czy możemy użyć wyrażenia regularnego w pliku robots.txt do blokowania adresów URL?

Mam kilka dynamicznie generowanych adresów URL. Czy mogę użyć wyrażenia regularnego, aby zablokować te adresy URL w pliku