Jak mogę sprawdzić, czy bufor potoku jest pełny?

11

Przesyłam dane wyjściowe z jednego programu do napisanego przeze mnie Perla. To długotrwały proces, czasem dni, więc chcę dowiedzieć się, gdzie są moje wąskie gardła i spróbować je otworzyć. Chcę wiedzieć, czy dane są przesyłane do mojego skryptu szybciej niż mój skrypt może to przetworzyć. W takim przypadku postaram się ulepszyć mój skrypt, ale nie, jeśli nie będę musiał. Widzę mówienie o ustawianiu flagi, gdy bufor jest pełny, co uniemożliwia dalsze zapisywanie do niego, ale jak sprawdzić, czy lub jak często ta flaga jest ustawiona? Jakieś pomysły?

Dan Sphar
źródło
3
Myślę, że tylko proces pisania mógł wiedzieć.
enzotib
5
Możesz spróbować użyć pvgdzieś wzdłuż łańcucha rur.
amfetamachina

Odpowiedzi:

9

Śledziłbym twój skrypt Perla za pomocą narzędzia do śledzenia wywołań systemowych: strace(Linux), dtruss(OS X), ktrace(FreeBSD), truss(Solaris) itp. Celem byłoby sprawdzenie, ile czasu twój skrypt Perla czeka na czytanie z jego stdin i ile czasu drugi program spędza na pisaniu na standardowe wyjście.

Tutaj testuję to z pisarzem jako wąskim gardłem:

terminal 1$ gzip -c < /dev/urandom | cat > /dev/null

terminal 2$ ps auxw | egrep 'gzip|cat'
slamb    25311 96.0  0.0  2852  516 pts/0    R+   23:35   3:40 gzip -c
slamb    25312  0.8  0.0  2624  336 pts/0    S+   23:35   0:01 cat

terminal 2$ strace -p 25312 -s 0 -rT -e trace=read
Process 25312 attached - interrupt to quit
     0.000000 read(0, ""..., 4096) = 4096 <0.005207>
     0.005531 read(0, ""..., 4096) = 4096 <0.000051>

Pierwszy numer to czas od początku poprzedniego połączenia systemowego, a ostatni numer to czas spędzony na wywołaniu systemowym. Więc możemy trochę przetworzyć za pomocą Perla, aby go zagregować ... [*]

terminal 2$ strace -p 25312 -s 0 -rT -e trace=read 2>&1 | perl -nle 'm{^\s*([\d.]+) read\(0, .*<([\d.]+)>} or next; $total_work += $1 - $last_wait; $total_wait += $2; $last_wait = $2; print "working for $total_work sec, waiting for $total_wait sec"; $last_wait = $2;'
working for 0 sec, waiting for 0.005592 sec
...
working for 0.305356 sec, waiting for 2.28624900000002 sec
...

terminal 2$ strace -p 25311 -s 0 -rT -e trace=write 2>&1 | perl -nle 'm{^\s*([\d.]+) write\(1, .*<([\d.]+)>} or next; $total_work += $1 - $last_wait; $total_wait += $2; $last_wait = $2; print "working for $total_work sec, waiting for $total_wait sec"; $last_wait = $2;'
...
working for 5.15862000000001 sec, waiting for 0.0555740000000007 sec
...

Możesz zrobić coś bardziej fantazyjnego i stworzyć skrypt SystemTap lub DTrace, który śledzi obie strony jednocześnie, śledzi tylko poprawny deskryptor pliku i drukuje ładną aktualizację statusu co sekundę z procentem czasu, jaki każdy czekał na drugą.

[*] - Ostrzeżenie: moja prymitywna agregacja nie jest w porządku, jeśli odczyt / zapis jest wywoływany w innych deskryptorach plików; w takim przypadku nie doceniają czasu pracy.


Wersja dtrace jest właściwie całkiem fajna.

terminal 1$ gzip -c < /dev/urandom | cat > /dev/null

terminal 2$ ps aux | egrep 'gzip| cat'
slamb    54189  95.8  0.0   591796    584 s006  R+   12:49AM  22:49.55 gzip -c
slamb    54190   0.4  0.0   599828    392 s006  S+   12:49AM   0:06.08 cat

terminal 2$ cat > pipe.d <<'EOF'
#!/usr/sbin/dtrace -qs

BEGIN
{
  start = timestamp;
  writer_blocked = 0;
  reader_blocked = 0;
}

tick-1s, END
{
  this->elapsed = timestamp - start;
  printf("since startup, writer blocked %3d%% of time, reader %3d%% of time\n",
         100 * writer_blocked / this->elapsed,
         100 * reader_blocked / this->elapsed);
}

syscall::write:entry
/pid == $1 && arg0 == 1/
{
  self->entry = timestamp;
}

syscall::write:return
/pid == $1 && self->entry != 0/
{
  writer_blocked += timestamp - self->entry;
  self->entry = 0;
}

syscall::read:entry
/pid == $2 && arg0 == 0/
{
  self->entry = timestamp;
}

syscall::read:return
/pid == $2 && self->entry != 0/
{
  reader_blocked += timestamp - self->entry;
  self->entry = 0;
}
EOF

terminal 2$ chmod u+x pipe.d
terminal 2$ sudo ./pipe.d 54189 54190
since startup, writer blocked   0% of time, reader  98% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
since startup, writer blocked   0% of time, reader  99% of time
^C
since startup, writer blocked   0% of time, reader  99% of time

I wersja SystemTap:

terminal 1$ gzip -c /dev/urandom | cat > /dev/null

terminal 2$ ps auxw | egrep 'gzip| cat'
slamb     3405  109  0.0   4356   584 pts/1    R+   02:57   0:04 gzip -c /dev/urandom
slamb     3406  0.2  0.0  10848   588 pts/1    S+   02:57   0:00 cat

terminal 2$ cat > probes.stp <<'EOF'
#!/usr/bin/env stap

global start
global writer_pid
global writes
global reader_pid
global reads

probe begin {
  start = gettimeofday_us()
  writer_pid = strtol(argv[1], 10)
  reader_pid = strtol(argv[2], 10)
}

probe timer.s(1), end {
  elapsed = gettimeofday_us() - start
  printf("since startup, writer blocked %3d%% of time, reader %3d%% of time\n",
         100 * @sum(writes) / elapsed,
         100 * @sum(reads) / elapsed)
}

probe syscall.write.return {
  if (pid() == writer_pid && $fd == 1)
    writes <<< gettimeofday_us() - @entry(gettimeofday_us())
}

probe syscall.read.return {
  if (pid() == reader_pid && $fd == 0)
    reads <<< gettimeofday_us() - @entry(gettimeofday_us())
}
EOF

terminal 2$ chmod a+x probes.stp
terminal 2$ sudo ./pipe.stp 3405 3406
since startup, writer blocked   0% of time, reader  99% of time
...
Scott Lamb
źródło
6

Możesz wstawić pv -TCpolecenie do linii potoku:

cmd1 | pv -TC | cmd2

pvużywa własnego bufora i -Tsprawia, że ​​raportuje, jak pełny jest średnio co 1 sekundę (domyślnie).

Jeśli zawsze jest to 100%, oznacza cmd1to , że produkcja jest szybsza niż cmd2konsumpcja. Jeśli nie, to jest na odwrót. Uważaj, że same rury mogą pomieścić 64kB.

Zobacz także, -Baby określić pvrozmiar bufora. Możesz użyć kilku pvs jak w:

$ cmd1 | pv -cCTrbN 'cmd1 -> cmd2' | cmd2 | pv -cCTrbN 'cmd2 -> cmd3' | cmd3
cmd1 -> cmd2: 1.92GiB { 53%} [ 387MiB/s]
cmd2 -> cmd3: 1.92GiB {  0%} [ 387MiB/s]
Stéphane Chazelas
źródło