1️⃣ Gerçek troubleshooting senaryosu (Case Study)
🎯 Senaryo
-
Storage: All-Flash iSCSI (Active/Active, ALUA)
-
ESXi: 7.x
-
Şikayet:
“VM’ler arada donuyor ama storage dashboard yeşil”
🔍 Adım 1 – esxtop (disk)
➡️ Storage hızlı ama IO queue’da bekliyor
🔍 Adım 2 – Path dağılımı
➡️ RR var gibi ama fiilen Fixed çalışıyor
🔍 Adım 3 – PSP kontrolü
🎯 Root cause bulundu
🛠️ Çözüm
📈 Sonuç
| Metric | Önce | Sonra |
|---|---|---|
| QAVG | 18 ms | 0.3 ms |
| VM freeze | Var | Yok |
| IO dağılımı | Dengesiz | Dengeli |
📌 Storage değil, multipath ayarı suçluydu.
2️⃣ iSCSI vs FC – Latency farkları (gerçek hayat)
🔹 iSCSI
-
TCP/IP
-
CPU etkisi var
-
NIC & MTU hassas
Tipik latency (All-Flash):
-
0.8 – 2 ms
🔹 Fibre Channel
-
Dedicated fabric
-
Daha stabil
-
CPU yükü yok
Tipik latency:
-
0.5 – 1 ms
⚖️ Karşılaştırma tablosu
| Özellik | iSCSI | FC |
|---|---|---|
| Latency | Bir tık yüksek | Daha düşük |
| Maliyet | Düşük | Yüksek |
| Yönetim | Kolay | Karmaşık |
| Multipath hassasiyeti | Yüksek | Orta |
📌 Yanlış iSCSI tuning = FC’den 5 kat yavaş
3️⃣ NVMe-oF multipath tuning
NVMe-oF = latency canavarı ⚡
Ama yanlış ayarla çöpe gider.
🔹 NVMe-oF vs SCSI farkı
-
Queue depth çok daha yüksek
-
Path switching çok hızlı
🔹 En iyi pratikler
-
PSP: RR
-
IOPS: 1
-
Path sayısı: 2–4 (fazlası gereksiz)
-
Queue Depth: Vendor default
🔹 Kontrol komutları
Latency esxtop’ta:
🚨 Eğer QAVG > 1 ms ise:
-
Fazla path
-
NIC oversubscription
4️⃣ VM bazlı latency analizi (altın değerinde)
🔹 esxtop → VM view
Açılacak kolonlar:
-
GAVG -
DAVG -
KAVG -
QAVG
🔍 Yorumlama
| Durum | Anlam |
|---|---|
| VM GAVG yüksek, host düşük | VM içi problem |
| VM + Host yüksek | Storage |
| VM tek başına yüksek | Noisy neighbor |
🔹 VM içinden teyit
Windows
Linux
🚨 En kritik red flag (ezberle)
“Host storage hızlı ama tek VM yavaşsa,
suçlu %90 VM içi IO pattern’dır.”
🎯 Final özet
-
esxtop = gerçek hayat
-
QAVG = multipath alarmı
-
iSCSI doğru ayarlanırsa FC’ye yaklaşır
-
NVMe-oF küçük hatayı affetmez
-
VM bazlı analiz = root cause buldurur
Комментариев нет:
Отправить комментарий