Примусові переговори швидкості зв'язку PCI Express? x2 карта повертається до x1 ширини


15

Прагнучи обійти сумісність та бар'єри витрат на використання SSD-накопичувачів з новішими серверами HP ProLiant Gen8, я працюю над тим, щоб перевірити на платформі SSD на основі PCIe. Я експериментував з цікавим продуктом з обчислювальної техніки Іншого світу під назвою Accelsior E2 .

введіть тут опис зображення

Це основна конструкція; карта PCIe з контролером RAID SATA RAG Marvell 6Gbps та двома SSD-лопатками, підключеними до карти. Вони можуть передаватися в ОС для програмного забезпечення RAID (наприклад, ZFS ) або використовуватись як апаратні смужки RAID0 або дзеркальна пара RAID1. Ніфт. Це дійсно просто ущільнення контролера і дисків у дійсно невеликий форм-фактор.

Проблема:

Подивіться на цей роз'єм PCIe. Це інтерфейс PCie x2 . Фізичні розміри слотів / смуг PCIe , як правило, складають x1, x4, x8 та x16 , електричні з'єднання зазвичай x1, x4, x8 та x16. Це чудово. Раніше я використовував карти x1 в серверах.

Я почав тестувати працездатність цієї карти в завантаженій системі і виявив, що швидкість читання / запису скорочується до ~ 410 Мб / с, незалежно від налаштування сервера / слота / BIOS. Сервери, якими користуються, були системи HP ProLiant G6, G7 та Gen8 (Nehalem, Westmere та Sandy Bridge) із слотами x4 та x8 PCIe. Перегляд BIOS карти показав, що пристрій домовлявся: PCIe 2.0 5.0Gbps x1- Отже, він використовує лише одну смугу PCIe замість двох, таким чином, доступна лише половина рекламованої пропускної здатності.

Чи є спосіб змусити пристрій PCIe працювати з різною швидкістю?

Моє дослідження показує, що PCIe x2 - це трохи ширина смуги смуги ... Стандарт PCI Express, очевидно, не вимагає сумісності з шириною смуги x2 , тому я гадаю, що контролери на моїх серверах повертаються до x1 ... У мене є звернення?


Скорочений lspci -vvvвихід. Зверніть увагу на різницю між LnkStaі LnkCapрядками.

05:00.0 SATA controller: Marvell Technology Group Ltd. Device 9230 (rev 10) (prog-if 01 [AHCI 1.0])
        Subsystem: Marvell Technology Group Ltd. Device 9230
        Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr+ Stepping- SERR+ FastB2B- DisINTx+
        Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
                DevSta: CorrErr+ UncorrErr- FatalErr- UnsuppReq+ AuxPwr- TransPend-
                LnkCap: Port #0, Speed 5GT/s, Width x2, ASPM L0s L1, Latency L0 <512ns, L1 <64us
                        ClockPM- Surprise- LLActRep- BwNot-
                LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- Retrain- CommClk+
                        ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
                LnkSta: Speed 5GT/s, Width x1, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
                LnkCtl2: Target Link Speed: 5GT/s, EnterCompliance- SpeedDis-
        Kernel driver in use: ahci
        Kernel modules: ahci

Я припускаю, що ви кладете картку в слот x4, правда? У будь-якому випадку, я не впевнений, як HP буде обробляти карту x2. У слоті x4 він повинен мати можливість використовувати обидві смуги, але, як ви вже згадували, немає гарантії, що він повинен ним користуватися. Враховуючи це, я не впевнений, яка кількість нарікань продуктивності ви можете бачити, оскільки 6-фунтовий SATA все ще вважається обмеженим максимумом 4,8 Гбіт / с з кодуванням накладних витрат однією смугою PCIe, що має пропускну здатність. максимум 5 кг.
Рекс

@Rex "x4 та x8 PCIe слоти" були випробувані. На платі є два дискретні SATA SSD-накопичувачі 6 Гбіт / с, тому одноразово виникає набір швидкості / якщо PCIe x2 узгоджується.
ewwhite

Ах .. пропустив x4 x8 слотів в питанні /, але ви говорите «PCIe карти з в контролер Marvell 6Gbps SATA RAID» , маючи на увазі , один контролер :) Якщо він має два дискретних контролерів, є кожен SSD підключений до його власний контролер? Тоді як це зробити апаратний RAID на двох різних контролерах?
Рекс

@Rex Є два SSD, підключені до одного контролера. RAID-контролер 6 Гбіт / с має пропускну здатність 6 Гбіт / с на смугу SAS / SATA.
ewwhite

Специфікація PCIe не вимагає, щоб слоти підтримували що-небудь, крім 1x. Коли картка вставлена, хост запитує її на підтримку смуги руху і незалежно від найвищої потужності двох, що використовуються обидві підтримки (так 1x, 2x, 4x, 8x, 16x або 32x). Крім того, кожна смуга на кінцевій точці (хост або карта) може підтримувати початкові переговори, але зазвичай це стосується лише першої смуги (коли додаткові смуги підтримують переговори, слот може бути роздвоєним, підключивши більше однієї картки за допомогою розгалужувача ). Як зазначалося нижче, сервери, про які йдеться, не підтримують режим 2x lane.
Кріс S

Відповіді:


6

Це офіційна відповідь від OWS, тепер ще одна відповідь, чи можна змусити контролер hp довести його до ширини x2, що потребує ще додаткових досліджень. -)

введіть тут опис зображення


Але на даний момент карта знаходиться в G6 ProLiant -Manufacturer: HP Product Name: ProLiant DL180 G6
ewwhite

Правильно, ймовірно, всі контролери Proliant DL pci матимуть проблему з карткою.
Даніла Ладнер

Подивись на тебе, йдеш до джерела !!
ewwhite

Також на Gen7, Gen8 за перший слот на стояку pcie завжди вийде 1х: 1 PCIe 2.0 X1 X4 Половина довжини / Повна висота звідси: h18000.www1.hp.com/products/quickspecs/14339_na/14339_na.pdf Я припускаю, що ви спробували різні слоти.
Даніла Ладнер

2

Я знову спробував це на дещо іншій платформі HP, 2U HP ProLiant DL380p Gen8 проти 1U DL360p Gen8. Я отримав належні результати, використовуючи цю комбінацію обладнання.

Поточна прошивка хоста Gen8 тепер дозволяє посиланням PCIe узгоджуватись із належною швидкістю, тому ці пристрої сумісні з серверами ProLiant DL380p Gen8.

Speed 5GT/s, Width x2, ASPM L0s L1, Latency L0 <512ns, L1 <64us
LnkSta: Speed 5GT/s, Width x2, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-

0

У мене є сервер IBM з карткою Broadcom 4 × 1GbE в ньому… узгоджено з 2.0x4 до 2.0x2:

0b:00.0 Ethernet controller: Broadcom Corporation NetXtreme II BCM5709 Gigabit Ethernet (rev 20) 
Subsystem: IBM Device 03a9 
Capabilities: [ac] Express (v2) Endpoint, MSI 00
LnkCap: Port #0, Speed 5GT/s, Width x4, ASPM L0s L1, Latency L0 <2us, L1 <2us 
LnkSta: Speed 5GT/s, Width x2, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-

Він мав роз'єм x4 , який я вгадування тільки повністю використовується , якщо покласти в слот PCIe v1, так що здається , що він веде переговори вниз x2 при використанні в слоті PCIe v2 (з 5 ГТ / с двонаправленим досить для 4 × 1GbE ).

Чи може те ж саме статися з вашою карткою?

(Якщо ні, то моя відповідь: використовувати IBM замість HP: P)


1
Ніякого IBM !!! Ніколи;)
ewwhite
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.