Який процес використовує всі мої диски IO


120

Якщо я використовую "top", я можу побачити, який процесор зайнятий і який процес використовує весь мій процесор.

Якщо я використовую "iostat -x", я можу побачити, який диск зайнятий.

Але як я бачу, який процес використовує всю пропускну здатність диска?


2
Що ж, технічно це стосується і Linux, оскільки користувачі обробляють лише зміни сторінок у кеш-сторінках ...;)
Damon

Просто питання, яке я мав, і відповідь, яку я шукав, але чи не підходить такий питання краще в SuperUser?
Зета Два

І саме тому Linux не поступається Solaris та MacOS, оскільки в них вбудований dtrace, який робить це тривіально простим: - /
Thorbjørn Ravn Andersen

Відповіді:


162

Ви шукаєте iotop(припустимо, що у вас є ядро> 2.6.20 та Python 2.5). Якщо цього не зробити, ви шукаєте підключення до файлової системи. Рекомендую колишнє.


8
iotopСхоже, показує пропускну здатність вводу / виводу, а не кількість IOPS, споживаних процесами. Це не дуже актуально. Процес, який виконує багато невеликих записів + синхронізації, споживає більше ємності вводу-виводу диска, ніж процес запису великої суміжної партії даних з високою швидкістю.
Арно Ле Блан

Для невеликих записів все, що я бачив, було [jdb2/nvme0n1p1]в iotop, але мені пощастило ввімкнути / proc / sys / vm / block_dump та порівняти вихід із здоровою / стабільною системою lxadm.com/Simple_filesystem_read/write_tracing_with_/proc/sys/… Це допомогло знайти контейнер докера, який постійно нерестує запити kubectl, вичерпуючи вибухові кредити обсягу EBS із записами в /home/spinnaker/.kube/cache/discovery/.../serverresources.json. Як тільки ви звузите речі до імені користувача / процесу, щось подібне iotop -atku systemd-network | grep kubectlтакож може допомогти
Грег Брей

16

Щоб дізнатися, які процеси в стані "D" (очікування відповіді диска) в даний час запущено:

while true; do date; ps aux | awk '{if($8=="D") print $0;}'; sleep 1; done

або

watch -n1 -d "ps axu | awk '{if (\$8==\"D\") {print \$0}}'"

Wed Aug 29 13:00:46 CLT 2012
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]
Wed Aug 29 13:00:47 CLT 2012
Wed Aug 29 13:00:48 CLT 2012
Wed Aug 29 13:00:49 CLT 2012
Wed Aug 29 13:00:50 CLT 2012
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]
Wed Aug 29 13:00:51 CLT 2012
Wed Aug 29 13:00:52 CLT 2012
Wed Aug 29 13:00:53 CLT 2012
Wed Aug 29 13:00:55 CLT 2012
Wed Aug 29 13:00:56 CLT 2012
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]
Wed Aug 29 13:00:57 CLT 2012
root       302  0.0  0.0      0     0 ?        D    May28   3:07  \_ [kdmflush]
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]
Wed Aug 29 13:00:58 CLT 2012
root       302  0.0  0.0      0     0 ?        D    May28   3:07  \_ [kdmflush]
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]
Wed Aug 29 13:00:59 CLT 2012
root       302  0.0  0.0      0     0 ?        D    May28   3:07  \_ [kdmflush]
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]
Wed Aug 29 13:01:00 CLT 2012
root       302  0.0  0.0      0     0 ?        D    May28   3:07  \_ [kdmflush]
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]
Wed Aug 29 13:01:01 CLT 2012
root       302  0.0  0.0      0     0 ?        D    May28   3:07  \_ [kdmflush]
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]
Wed Aug 29 13:01:02 CLT 2012
Wed Aug 29 13:01:03 CLT 2012
root       321  0.0  0.0      0     0 ?        D    May28   4:25  \_ [jbd2/dm-0-8]

Як видно з результату, jdb2 / dm-0-8 (журнальний процес ext4) та kdmflush постійно блокують ваш Linux.

Для отримання більш детальної інформації ця URL може бути корисною: Проблема Linux Wait-IO


11

поверх також добре працює і легко встановлюється навіть у старих системах CentOS 5.x, які не можуть запускати iotop. Натисніть, dщоб показати докладні відомості про диск ?.

ATOP - mybox                           2014/09/08  15:26:00                           ------                            10s elapsed
PRC |  sys    0.33s |  user   1.08s |                | #proc    161  |  #zombie    0 |  clones    31 |                | #exit         16  |
CPU |  sys   4% |  user     11% |  irq       0%  | idle    306%  |  wait     79% |               |  steal     1%  | guest     0%  |
cpu |  sys   2% |  user      8% |  irq       0%  | idle     11%  |  cpu000 w 78% |               |  steal     0%  | guest     0%  |
cpu |  sys   1% |  user      1% |  irq       0%  | idle     98%  |  cpu001 w  0% |               |  steal     0%  | guest     0%  |
cpu |  sys   1% |  user      1% |  irq       0%  | idle     99%  |  cpu003 w  0% |               |  steal     0%  | guest     0%  |
cpu |  sys   0% |  user      1% |  irq       0%  | idle     99%  |  cpu002 w  0% |               |  steal     0%  | guest     0%  |
CPL |  avg1    2.09 |  avg5    2.09 |  avg15   2.09  |               |  csw    54184 |  intr   33581 |                | numcpu     4  |
MEM |  tot     8.0G |  free   81.9M |  cache   2.9G  | dirty   0.8M  |  buff  174.7M |  slab  305.0M |                |               |
SWP |  tot     2.0G |  free    2.0G |                |               |               |               |  vmcom   8.4G  | vmlim   6.0G  |
LVM |  Group00-root |  busy     85% |  read       0  | write  30658  |  KiB/w      4 |  MBr/s   0.00 |  MBw/s  11.98  | avio 0.28 ms  |
DSK |          xvdb |  busy     85% |  read       0  | write  23706  |  KiB/w      5 |  MBr/s   0.00 |  MBw/s  11.97  | avio 0.36 ms  |
NET |  transport    |  tcpi    2705 |  tcpo    2008  | udpi      36  |  udpo      43 |  tcpao     14 |  tcppo     45  | tcprs      1  |
NET |  network      |  ipi     2788 |  ipo     2072  | ipfrw      0  |  deliv   2768 |               |  icmpi      7  | icmpo     20  |
NET |  eth0    ---- |  pcki    2344 |  pcko    1623  | si 1455 Kbps  |  so  781 Kbps |  erri       0 |  erro       0  | drpo       0  |
NET |  lo      ---- |  pcki     423 |  pcko     423  | si   88 Kbps  |  so   88 Kbps |  erri           0 |  erro       0  | drpo       0  |
NET |  eth1    ---- |  pcki  22 |  pcko      26  | si    3 Kbps  |  so    5 Kbps |  erri       0 |  erro       0  | drpo       0  |

  PID                   RDDSK                    WRDSK                   WCANCL                    DSK                   CMD        1/1
 9862                      0K                   53124K                       0K                    98%                   java
  358                      0K                     636K                       0K                     1%                   jbd2/dm-0-8
13893                      0K                     192K                      72K                     0%                   java
 1699                      0K                      60K                       0K                     0%                   syslogd
 4668                      0K                      24K                       0K                     0%                   zabbix_agentd

Це чітко свідчить про винуватця java pid 9862.


4

TL; DR

Якщо ви можете використовувати iotop, зробіть це. Інакше це може допомогти.


Використовуйте top, а потім використовуйте ці ярлики:

d 1 = set refresh time from 3 to 1 second

1   = show stats for each cpu, not cumulated

Це повинно показувати значення > 1.0 waпринаймні для одного ядра - якщо немає дискретних очікувань, просто немає завантаження IO і не потрібно шукати далі. Зазвичай починаються значні навантаження > 15.0 wa.

x       = highlight current sort column 
< and > = change sort column
R       = reverse sort order

Оберіть "S", стовпець статусу процесу. Поверніть порядок сортування, щоб процеси 'R' (запущені) відображалися вгорі. Якщо ви можете помітити "D" процеси (очікування диска), у вас є індикатор, яким може бути ваш винуватець.


3

Для користувачів KDE ви можете використовувати 'ctrl-esc' верхній виклик системного монітора активності, і є діаграми діяльності вводу / виводу з ідентифікатором процесу та назвою.

У мене немає дозволів на завантаження зображення через "новий статус користувача", але ви можете переглянути зображення нижче. У ньому є стовпець для IO читання та запису.


2

Ви розглядали lsof(перераховуйте відкриті файли)?


3
що просто показує ручки відкритого файлу, а не МБ / с для кожного файлу. iotop це робить.
олігофрен

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.