MySQL nigdy nie wymyślił Profilowania Zapytań. Teraz, gdy MySQL jest obsługiwany przez Oracle, wiem, że tak będzie nadal.
Jednak cała nadzieja nie jest stracona.
Od 2007 roku Percona opracowała kilka absolutnie cudownych narzędzi do wszystkiego, czego chciałby deweloper i DBA, w tym profilowania zapytań.
Pierwszy zestaw narzędzi Percona , znany jako MAATKIT , stworzył królestwo dla poważnego użytkownika MySQL. Zawiera wiele rzeczy , takich jak:
- Profilowanie zapytań
- Replikacja pulsu
- Zarządzanie Slave replikacji
- Tabela Suma kontrolna i synchronizacja
Percona niedawno rozwidliła MAATKIT w bardziej aktualny zestaw narzędzi, znany dziś jako Percona Toolkit . Te narzędzia znalazły się w miejscu, w którym MAATKIT przerwał, rozszerzając sferę działania dla poważnego użytkownika MySQL o takie rzeczy:
- Sprawdzanie błędu klucza obcego
- Zmiana schematu online
- Plany wizualnego wyjaśnienia
- i więcej ...
Wracając do pierwotnego pytania, dostępne są narzędzia do profilowania zapytań
Oto przykład rodzaju bogatych informacji, które mogą pochodzić z jednego z tych narzędzi:
Pomogłem klientowi wdrożyć mk-query-digest w celu raportowania 20 najgorzej działających zapytań co 20 minut. Pomysł zrodził się z tego filmu na YouTube . Klient przeniósłby dane wyjściowe złego zapytania do pamięci memcached, zmniejszając w ten sposób częstotliwość pobierania danych przez bazę danych.
Oto skrypt, który wykonałem, aby wywołać mk-query-digest (sprawdzanie tylko listy procesów)
#!/bin/sh
RUNFILE=/tmp/QueriesAreBeingDigested.txt
if [ -f ${RUNFILE} ] ; then exit ; fi
MKDQ=/usr/local/sbin/mk-query-digest
RUNTIME=${1}
COPIES_TO_KEEP=${2}
DBVIP=${3}
WHICH=/usr/bin/which
DATE=`${WHICH} date`
ECHO=`${WHICH} echo`
HEAD=`${WHICH} head`
TAIL=`${WHICH} tail`
AWK=`${WHICH} awk`
SED=`${WHICH} sed`
CAT=`${WHICH} cat`
WC=`${WHICH} wc`
RM=`${WHICH} rm | ${TAIL} -1 | ${AWK} '{print $1}'`
LS=`${WHICH} ls | ${TAIL} -1 | ${AWK} '{print $1}'`
HAS_THE_DBVIP=`/sbin/ip addr show | grep "scope global secondary" | grep -c "${DBVIP}"`
if [ ${HAS_THE_DBVIP} -eq 1 ] ; then exit ; fi
DT=`${DATE} +"%Y%m%d_%H%M%S"`
UNIQUETAG=`${ECHO} ${SSH_CLIENT}_${SSH_CONNECTION}_${DT} | ${SED} 's/\./ /g' | ${SED} 's/ //g'`
cd /root/QueryDigest
OUTFILE=QP_${DT}.txt
HOSTADDR=${DBVIP}
${MKDQ} --processlist h=${HOSTADDR},u=queryprofiler,p=queryprofiler --run-time=${RUNTIME} > ${OUTFILE}
#
# Rotate out Old Copies
#
QPFILES=QPFiles.txt
QPFILES2ZAP=QPFiles2Zap.txt
${LS} QP_[0-9][0-9][0-9][0-9][0-9][0-9][0-9][0-9]_[0-9][0-9][0-9][0-9][0-9][0-9].txt > ${QPFILES}
LINECOUNT=`${WC} -l < ${QPFILES}`
if [ ${LINECOUNT} -gt ${COPIES_TO_KEEP} ]
then
(( DIFF = LINECOUNT - COPIES_TO_KEEP ))
${HEAD} -${DIFF} < ${QPFILES} > ${QPFILES2ZAP}
for QPFILETOZAP in `${CAT} ${QPFILES2ZAP}`
do
${RM} ${QPFILETOZAP}
done
fi
rm -f ${QPFILES2ZAP}
rm -f ${QPFILES}
rm -f ${RUNFILE}
Oto użytkownik, którego stworzyłem, aby połączyć się z mysql za pomocą mk-query-digest
GRANT PROCESS ON *.* TO 'queryprofiler'@'%' IDENTIFIED BY 'queryprofiler';
Oto crontab, który biegałem co 20 minut (mniej niż 10 sekund), zachowując ostatnie 144 kopie (czyli 48 godzin profilowania)
*/20 * * * * /root/QueryDigest/ExecQueryDigest.sh 1190s 144 10.1.1.8
Niesamowita część: wynik działania mk-query-digest
Oto profil, który trwał 28.12.2011 11:20:00 przez 1190 sekund (20 min mniej 10 sekund)
Ostatnie 22 wiersze
# Rank Query ID Response time Calls R/Call Item
# ==== ================== ================ ======= ========== ====
# 1 0x5E994008E9543B29 40.3255 11.2% 101 0.399263 SELECT schedule_occurrence schedule_eventschedule schedule_event schedule_eventtype schedule_event schedule_eventtype schedule_occurrence.start
# 2 0x392F6DA628C7FEBD 33.9181 9.4% 17 1.995184 SELECT mt_entry mt_objecttag
# 3 0x6C6318E56E149036 26.4695 7.3% 102 0.259505 SELECT schedule_occurrence schedule_eventschedule schedule_event schedule_eventtype schedule_event schedule_eventtype schedule_occurrence.start
# 4 0x00F66961DAE6FFB2 25.5472 7.1% 55 0.464495 SELECT mt_entry mt_placement mt_category
# 5 0x99E13015BFF1E75E 22.3618 6.2% 199 0.112371 SELECT mt_entry mt_objecttag
# 6 0x84DD09F0FC444677 22.3516 6.2% 39 0.573118 SELECT mt_entry
# 7 0x440EBDBCEDB88725 21.1817 5.9% 36 0.588380 SELECT mt_entry
# 8 0x8D258C584B858811 17.2402 4.8% 37 0.465951 SELECT mt_entry mt_placement mt_category
# 9 0x4E2CB0F4CAFD1400 16.9768 4.7% 40 0.424419 SELECT mt_entry mt_placement mt_category
# 10 0x377E0D0898266FDD 16.6979 4.6% 150 0.111319 SELECT polls_pollquestion mt_category
# 11 0x3B9686D98BB8E054 16.2089 4.5% 32 0.506529 SELECT mt_entry mt_objecttag mt_tag
# 12 0x97F670B604A85608 15.6158 4.3% 34 0.459287 SELECT mt_entry mt_placement mt_category
# 13 0x3F5557DA231225EB 14.4309 4.0% 36 0.400859 SELECT mt_entry mt_placement mt_category
# 14 0x191D660A10738896 13.1220 3.6% 31 0.423290 SELECT mt_entry mt_placement mt_category
# 15 0xF88F7421DD88036D 12.1261 3.4% 61 0.198788 SELECT mt_entry mt_blog mt_objecttag mt_tag mt_author
# 16 0xA909BF76E7051792 10.3971 2.9% 53 0.196172 SELECT mt_entry mt_objecttag mt_tag
# 17 0x3D42D07A335ED983 9.1424 2.5% 20 0.457121 SELECT mt_entry mt_placement mt_category
# 18 0x59F43B57DD43F2BD 9.0533 2.5% 21 0.431111 SELECT mt_entry mt_placement mt_category
# 19 0x7961BD4C76277EB7 8.5564 2.4% 47 0.182052 INSERT UNION UPDATE UNION mt_session
# 20 0x173EB4903F3B6DAC 8.5394 2.4% 22 0.388153 SELECT mt_entry mt_placement mt_category
Zauważ, że jest to lista 20 najgorzej działających zapytań opartych na czasie odpowiedzi zapytania podzielonym przez liczbę wywołań zapytania.
Patrząc na identyfikator zapytania nr 1, czyli znajdujemy 0x5E994008E9543B29
ten identyfikator zapytania w pliku wyjściowym, a oto raport dla tego konkretnego zapytania:
# Query 1: 0.09 QPS, 0.03x concurrency, ID 0x5E994008E9543B29 at byte 0 __
# This item is included in the report because it matches --limit.
# pct total min max avg 95% stddev median
# Count 4 101
# Exec time 7 40s 303ms 1s 399ms 992ms 198ms 293ms
# Lock time 0 0 0 0 0 0 0 0
# Users 1 mt
# Hosts 101 10.64.95.73:33750 (1), 10.64.95.73:34452 (1), 10.64.95.73:38440 (1)... 97 more
# Databases 1 mt1
# Time range 1325089201 to 1325090385
# bytes 0 273.60k 2.71k 2.71k 2.71k 2.62k 0 2.62k
# id 4 765.11M 7.57M 7.58M 7.58M 7.29M 0.12 7.29M
# Query_time distribution
# 1us
# 10us
# 100us
# 1ms
# 10ms
# 100ms ################################################################
# 1s ######
# 10s+
# Tables
# SHOW TABLE STATUS FROM `mt1` LIKE 'schedule_occurrence'\G
# SHOW CREATE TABLE `mt1`.`schedule_occurrence`\G
# SHOW TABLE STATUS FROM `mt1` LIKE 'schedule_eventschedule'\G
# SHOW CREATE TABLE `mt1`.`schedule_eventschedule`\G
# SHOW TABLE STATUS FROM `mt1` LIKE 'schedule_event'\G
# SHOW CREATE TABLE `mt1`.`schedule_event`\G
# SHOW TABLE STATUS FROM `mt1` LIKE 'schedule_eventtype'\G
# SHOW CREATE TABLE `mt1`.`schedule_eventtype`\G
# SHOW TABLE STATUS FROM `schedule_occurrence` LIKE 'start'\G
# SHOW CREATE TABLE `schedule_occurrence`.`start`\G
# EXPLAIN
SELECT `schedule_occurrence`.`id`, `schedule_occurrence`.`schedule_id`, `schedule_occurrence`.`event_id`, `schedule_occurrence`.`start`, `schedule_occurrence`.`end`, `schedule_occurrence`.`cancelled`, `schedule_occurrence`.`original_start`, `schedule_occurrence`.`original_end`, `schedule_occurrence`.`all_day`, `schedule_occurrence`.`ongoing`, `schedule_occurrence`.`featured`, `schedule_eventschedule`.`id`, `schedule_eventschedule`.`event_id`, `schedule_eventschedule`.`start`, `schedule_eventschedule`.`end`, `schedule_eventschedule`.`all_day`, `schedule_eventschedule`.`ongoing`, `schedule_eventschedule`.`min_date_calculated`, `schedule_eventschedule`.`max_date_calculated`, `schedule_eventschedule`.`rule`, `schedule_eventschedule`.`end_recurring_period`, `schedule_eventschedule`.`textual_description`, `schedule_event`.`id`, `schedule_event`.`title`, `schedule_event`.`slug`, `schedule_event`.`description`, `schedule_event`.`host_id`, `schedule_event`.`cost`, `schedule_event`.`age_restrictions`, `schedule_event`.`more_info`, `schedule_event`.`photo_id`, `schedule_event`.`contact_email`, `schedule_event`.`event_type_id`, `schedule_event`.`featured`, `schedule_event`.`staff_pick`, `schedule_event`.`futuremost`, `schedule_event`.`creator_id`, `schedule_event`.`created_on`, `schedule_event`.`allow_comments`, `schedule_event`.`mt_entry`, `schedule_eventtype`.`id`, `schedule_eventtype`.`parent_id`, `schedule_eventtype`.`name`, `schedule_eventtype`.`slug`, `schedule_eventtype`.`lft`, `schedule_eventtype`.`rght`, `schedule_eventtype`.`tree_id`, `schedule_eventtype`.`level`, T5.`id`, T5.`title`, T5.`slug`, T5.`description`, T5.`host_id`, T5.`cost`, T5.`age_restrictions`, T5.`more_info`, T5.`photo_id`, T5.`contact_email`, T5.`event_type_id`, T5.`featured`, T5.`staff_pick`, T5.`futuremost`, T5.`creator_id`, T5.`created_on`, T5.`allow_comments`, T5.`mt_entry`, T6.`id`, T6.`parent_id`, T6.`name`, T6.`slug`, T6.`lft`, T6.`rght`, T6.`tree_id`, T6.`level` FROM `schedule_occurrence` INNER JOIN `schedule_eventschedule` ON (`schedule_occurrence`.`schedule_id` = `schedule_eventschedule`.`id`) INNER JOIN `schedule_event` ON (`schedule_eventschedule`.`event_id` = `schedule_event`.`id`) INNER JOIN `schedule_eventtype` ON (`schedule_event`.`event_type_id` = `schedule_eventtype`.`id`) INNER JOIN `schedule_event` T5 ON (`schedule_occurrence`.`event_id` = T5.`id`) INNER JOIN `schedule_eventtype` T6 ON (T5.`event_type_id` = T6.`id`) WHERE (EXTRACT(MONTH FROM `schedule_occurrence`.`start`) = 8 AND EXTRACT(DAY FROM `schedule_occurrence`.`start`) = 6 AND `schedule_occurrence`.`start` BETWEEN '2011-01-01 00:00:00' and '2011-12-31 23:59:59.99') ORDER BY `schedule_occurrence`.`ongoing` ASC, `schedule_occurrence`.`all_day` DESC, `schedule_occurrence`.`start` ASC\G
Chociaż histogram jest oparty na tekście, daje dokładny obraz ogólnej wydajności zapytania, czasami trwający ponad 1 sekundę, a przeważnie od 0,01 do 0,1 sekundy. Odtąd można przystąpić do dostrajania wydajności poprzez refaktoryzację zapytania, umieszczanie wyników zapytania w pamięci podręcznej, dodawanie brakujących lub pokrywających indeksów itp.
WNIOSEK
IMHO Gdyby Percona kiedykolwiek umieściła narzędzia profilujące w graficznym interfejsie użytkownika Windows, z łatwością rywalizowałaby z SQL Server Profiler firmy Microsoft.
Obrona spoczywa !!!
Zobacz także tę odpowiedź na temat Jet Profiler dla MySQL
źródło
Nie, nie ma takiego narzędzia.
źródło
MySQL Query Profiler w połączeniu z GUI Narzędzia MySQL są prawdopodobnie tak blisko, jak to możliwe, aby dostać się do narzędzia SQL Server Profiler
źródło
Najlepszymi gotowymi rozwiązaniami, jakie znalazłem, są kombinacja dziennika powolnych zapytań (który jest do kitu w porównaniu z Profiler) i po prostu uruchomienie Wireshark na porcie 3306 (który jest naprawdę do kitu w porównaniu z Profiler i wygrał ” działa, jeśli szyfrujesz połączenia).
Jest też SHOW FULL PROCESSLIST, który jest jak zredukowana kombinacja sys.dm_exec_sessions i sys.dm_exec_requests (z niewielkim tekstem sys.dm_exec_sql_text).
źródło
Jeśli potrzebujesz profilować pojedynczą aplikację, a nie wszystkie bazy danych obecne w MySQL, przekonasz się, że Neor Profile SQL jest użyteczny.
źródło
Mamy 6 dużych serwerów z różnymi wersjami MySQL od 4.1.22 do 5.1. Jet profiler dobre narzędzie, które pozwala nam graficznie zobaczyć status wszystkich serwerów na pierwszy rzut oka. Wizualny profiler http://tinyurl.com/profiler-png
źródło
Sugerowałbym, że najbliższą rzeczą jest śledzenie optymalizatora (nowość w 5.6).
Innym przykładem może być
SHOW PROFILES
(5.1+) lubperformance_schema
, który zawiera analizę poziomu instrukcji z MySQL 5.6+.źródło
Zobacz tę odpowiedź na temat LogMonitor MySql
źródło