Як обробляється 255 Тбіт / с в оптичному волоконному зв’язку?


25

Я ніколи не розумів, як досягаються нові записи швидкості передачі даних з точки зору перетворення з / на електричні та оптичні сигнали.

Припустимо, у нас є 255 Тбіт даних, і ми хочемо передати їх за одну секунду. (Це справжнє світове досягнення.) У вас є 255 Tbits, що зберігаються, скажімо, в 255 трлн конденсаторів (це оперативна пам'ять). Тепер, як очікується, ми зможемо прочитати кожен послідовно, запитуючи кожен шматочок, щоб через секунду ми прочитали всі 255 трлн. Це, очевидно, не організовано процесором 3 ГГц.

А що з кінцем прийому? Імпульси надходять на 255 ТГц, але частота оновлення електроніки, яка намагається прочитати вхідний сигнал, далеко не 255 Тц. Єдине, що я можу собі уявити, це тисячі процесорів, що мають тактовий поділ часу, мультиплексований (затриманий) менш ніж на 0,000000000001 сек. Хоча як домогтися такого мультиплексування, це також повертає мене до моєї проблеми з цією багаторазовою різницею частот.


4
"Це, очевидно, не організовано процесором 3 ГГц", чому б ні? Просто потрібно сказати кожному компоненту, щоб надсилати дані навколо, DMA та подібні технології існують з тих пір, як правило, назавжди. Також очевидно, що 255Tbit не досягнуто на споживчому обладнання.
ПлазмаHH

22
Ви припускаєте, що така система працює певним чином, наприклад, з імпульсами. Я сумніваюся, що це працює так, як існують розумніші, ефективніші способи передачі даних. Використання імпульсів мені здається дуже неефективним способом використання пропускної здатності волокна. Я б очікував, що буде використана деяка форма модуляції OFDMA. Потім зробіть багато каналів паралельно модулюючи на різних несучих частотах і використовуючи різну довжину хвилі світла. Перш ніж припускати, що щось працює певним чином, досліджуйте це, оскільки неправильні припущення призводять до неправильних висновків!
Bimpelrekkie

2
@Bimpelrekkie: Одним з найбільш цікавих фактів цієї технології (якій 3 роки до речі) є те, що вони використовують 7-ядерне багатомодове волокно для цих матеріалів.
ПлазмаHH

12
Знову ж таки, ви просто робите припущення, а потім самі допитуєтесь про це!?!? Чому б не дослідити тему, щоб ви знали і розуміли, як це робиться, а не просто припускати щось (що, мабуть, неправильно). Це краще сказати: я це не знаю , тоді просто припущу , що - то працює певним чином і розширити це (неправильне) припущення.
Bimpelrekkie

3
Будь ласка, посилайтесь на те, де ви читали про це справжнє досягнення світу. Крім того, чому ви вважаєте, що дані надсилалися серійно?
The Photon

Відповіді:


43

Замість того, щоб турбуватися про дослідницьку роботу, яка підштовхує речі до межі, спочатку почніть з розуміння речей, що сидять перед вами.

Як жорсткий диск SATA 3 в домашньому комп’ютері приводить 6 Гбіт / с до послідовного зв'язку? Основний процесор не є 6 ГГц, а той, який знаходиться на жорсткому диску, звичайно, не такий, за вашою логікою, це не повинно бути можливим.

Відповідь полягає в тому, що процесори не сидять там, виводячи один раз по одному, є спеціальне обладнання, яке називається SERDES (серіалізатор / десеріалізатор), яке перетворює паралельний потік даних з низькою швидкістю в серійний серій з високою швидкістю, а потім знову на інший кінець. Якщо це працює в блоках по 32 біта, то частота становить менше 200 МГц. Потім ці дані обробляються системою DMA, яка автоматично переміщує дані між SERDES та пам'яттю, не залучаючи процесор. Все, що повинен зробити процесор, - це вказувати контролеру DMA, де дані, скільки надсилати та куди відповідати. Після цього процесор може вимкнутись і зробити щось інше, DMA-контролер перерве, як тільки він закінчить роботу.

І якщо процесор витрачає більшу частину часу в режимі очікування, він може використати цей час для запуску другого DMA і SERDES, що працює на другій передачі. Насправді один процесор міг паралельно виконувати чимало таких передач, що дає вам досить здорову швидкість передачі даних.

Гаразд, це електричне, а не оптичне, і це в 50 000 разів повільніше, ніж система, про яку ви просили, але застосовуються ті самі основні поняття. Процесор лише коли-небудь обробляє дані великими фрагментами, спеціальне обладнання обробляє їх у менших розмірах, і лише деякі дуже спеціалізовані апаратні засоби займаються ними 1 біт за раз. Потім ви паралельно ставите багато цих посилань.


Одне пізнє доповнення до цього, на яке натякають інші відповіді, але явно не пояснюється ніде, - це різниця між швидкістю передачі та швидкістю передачі даних. Швидкість передачі бітів - швидкість, з якою передаються дані, швидкість передачі - швидкість, з якою передаються символи. У багатьох системах символи, що передаються двійковими бітами, тому два числа фактично однакові, тому між ними може виникнути велика плутанина.

Однак у деяких системах використовується багатобітова система кодування. Якщо замість того, щоб надсилати 0 В або 3 В по дроту протягом кожного тактового періоду, ви надсилаєте 0 В, 1 В, 2 В або 3 В на кожен годинник, тоді ваш показник символів однаковий, 1 символ на годинник. Але кожен символ має 4 можливі стани, і тому він може містити 2 біти даних. Це означає, що ваша швидкість передачі бітів зросла вдвічі, не збільшуючи тактову частоту.

Жодна система реального світу, про яку я знаю, не використовує такий простий багатобітовий символ рівня напруги, математика, що стоїть за системами реального світу, може стати дуже неприємною, але основний принцип залишається тим самим; якщо у вас є більше двох можливих станів, ви можете отримати більше біт за годинник. Ethernet і ADSL - це дві найпоширеніші електричні системи, які використовують такий тип кодування, як і будь-яка сучасна радіосистема. Як сказав @ alex.forencich у своїй чудовій відповіді система, яку ви запитували про використаний формат сигналу 32-QAM (квадратурна амплітудна модуляція), 32 різні можливі символи, що означає 5 біт на переданий символ.


1
Дякую, @Andrew, я дійсно зрозумів, що подумав, що моя проблема - це не розгляд послідовної та паралельної обробки. І було добре прочитати, як саме DMA зіграла тут свою роль. Щиро дякую!
stevie

1
"У багатьох системах символи, передані двійковими бітами, тому два числа фактично однакові", я думаю, для цього потрібне якесь цитування. Мені здається, більш часто зустрічаються будь-які нетривіальні швидкості передачі даних, що кожен символ кодує кілька біт, і таким чином швидкість передачі даних значно нижча за швидкість передачі бітів. Хоча в наші дні ми маємо досить гарну ідею, як поводитися з сигналами з декількома ГГц, все ж простіше розібратися з сигналами в діапазоні сотень МГц, що означає, що якщо ти можеш зробити з меншою швидкістю символу для даного біта швидкість, що спрощує значну частину пристроїв.
CVn

Я погоджуюся, що мультибітові символи частіше зустрічаються для нетривіальних швидкостей передачі даних. Однак коли люди вперше дізнаються про цифрову сигналізацію, вони, як правило, спочатку вчаться старше, із низькою швидкістю, і зазвичай це 1 біт на символ. Тож я припускаю, що щось на кшталт "у більшості систем, які людина, яка задає подібні запитання, раніше вивчав би будь-який рівень деталізації", було б більш точним. Якщо чесно, існує набагато більше тривіальних зв’язків швидкості передачі даних, ніж нетривіальних.
Андрій

2
@PaulUszak Вони будуть працювати кілька АЦП паралельно, так що жодна АЦП не працює ніде поблизу цієї швидкості, але їх вибіркові годинники будуть розміщені в шахматному порядку, щоб отримати ефективну швидкість вибірки. Після цього взагалі нічого не повинно працювати дуже швидко, це дещо відрізняється від ситуації передачі даних, оскільки область застосування має лише невелику вибіркову пам'ять. Коли ця пам'ять заповнена, вона зупиняє вибірку і чекає, поки процесор мав шанс скопіювати дані в основну пам'ять, цей процес може бути набагато повільніше.
Андрій

2
Цей діапазон Lecroy потужністю 100 ГГц BW використовує декілька методів (діплексер + спадна конверсія, а потім дискретизація з часовим інтервалом) для розділення сигналу на дуже велику кількість повільніших АЦП, які потім подають спеціальні високошвидкісні ASIC, які скидають дані у великі банки DRAM. Потім оригінальна форма хвилі реконструюється за допомогою DSP на центральному процесорі. Можна реконструювати лише невеликі сегменти, до розміру вибіркової пам'яті. Я думаю, що 100 ГГц Lecroy (і, мабуть, більшість інших високошвидкісних областей) використовує PCIe для підключення керуючого комп'ютера до АЦП та вибіркової оперативної пам'яті.
alex.forencich

60

Схоже, ви конкретно посилаєтесь на http://www.nature.com/nphoton/journal/v8/n11/full/nphoton.2014.243.html . Його можна прочитати тут: https://www.researchgate.net/publication/269099858_Ultra-high-density_spatial_division_multiplexing_with_a_few-mode_multicore_fibre .

У цьому випадку це трохи складніше, ніж "оптичний сигнал". Посилання, про яке йдеться, використовує кілька форм паралелізму для досягнення цієї цифри 255 Тбіт / с:

  • Мультиплексування з щільним поділом довжини хвилі використовується для натягування 50 різних довжин хвиль у волокно на інтервалах 50 ГГц (~ 0,8 нм у діапазоні 1550 нм С), кожна з яких несе 1/50 частини даних.

  • Використовуване волокно - це власноруч виготовлене 7-ядерне, маломодерне волокно, що має 3 режими на ядро, кожен з 2 поляризаціями, для 7 * 3 * 2 = 42 незалежних (більше або менше) каналів. Схоже, продажною точкою їх волокна є те, що ізоляція між сердечниками є досить хорошою, тому приймач повинен лише зрівняти перехресний зв'язок між режимами та поляризацією кожного ядра окремо (7 паралельних 6x6 замість 42x42).

Потім вони використовували формат сигналу 24,3 Gbaud 32-QAM (5 біт на символ, 24,3 * 5 = 121,5 Гбіт / с) для всіх 42 * 50 каналів, для загальної пропускної здатності 0,1125 * 42 * 50 = 255,15 Тбіт / с.

Тепер ці хлопці насправді тут трохи обдурили: вони беруть 50 лазерів, мультиплексують їх разом, модулюють це одним модулем IQ, потім декоррелюють поляризацію та суміжні канали з фіксованою затримкою для емуляції за допомогою незалежних передавачів. Тож це дійсно лише один сигнал зі швидкістю 121,5 Гбіт / с, повторюваний 2100 разів паралельно. І переданий сигнал, ймовірно, є лише псевдовипадковою двійковою послідовністю (PRBS), яка генерується на льоту і не зчитується з пам'яті. Або це може бути прочитаний з швидкої SRAM або масиву DRAM у високопродуктивному генераторі довільних сигналів.

На стороні прийому необхідна обробка цифрових сигналів для відновлення вихідних даних шляхом компенсації перехресних переговорів між режимами та поляризацією в кожному ядрі та застосуванням виправлення помилок. У статті згадується цифра в 200 Тбіт / с, яка була б швидкістю даних перед кодуванням для передачі (подібно до того, як гігабітна ефірна мережа 1000BASE-X дорівнює 1 Гбіт / с до кодування та 1,25 Гбіт / с після, або PCIe - 2/4 / 7,877 Гбіт / с раніше кодування та 2,5 / 5/8 Гбіт / с після), але незрозуміло, яку схему кодування та виправлення помилок вперед вони передбачають.

Схоже, вони не створили реального приймача, але натомість використовують два високошвидкісних осцилоскопи з когерентними детекторами для збору необроблених даних, а потім роблять обробку сигналів та вирівнювання в режимі офлайн. Вони також повинні були зробити фантастичне перемежоване час зйомки, оскільки їм довелося одночасно запускати послідовне виявлення на всіх 3 режимах з кожного волокна волокна, але у них було доступно лише 2 швидких осцилоскопа. І навіть це налаштування дозволяє їм отримувати одночасно 1 довжину хвилі на 1 волоконному ядрі - 729 Гбіт / с, і лише в коротких зривах.

Але все це добре, адже папір стосується волокна, а не фактичного зв’язку.

TL; DR: цифра 255 Тбіт / с трохи вводить в оману - вони не створили приймач, здатний до цього, але вони оцінили багатоядерне волокно, яке вони зробили, з 2100 копіями сигналу 121,5 Гбіт / с і одним приймачем.


15

Ігноруючи деталі конкретної передачі, про яку йдеться (про яку @ alex.forencich вже досить детально обговорювались), здається, що, мабуть, корисно розглянути більш загальний випадок.

Незважаючи на те, що ця передача потрапила до 255 Тбіт / с через волокно, надзвичайно швидкі зв'язки з волокнами вже в регулярному використанні. Я не впевнений, скільки саме розгортань існує (напевно, не дуже багато), але є комерційні специфікації для OC-1920 / STM-640 та OC-3840 / STM-1280, зі швидкістю передачі відповідно 100- та 200-Гбіт / с відповідно. . Це приблизно на три порядки повільніше, ніж показав цей тест, але він все ще досить швидкий за допомогою звичайних заходів.

Отже, як це робиться? Використовується багато одних і тих же прийомів. Зокрема, майже все, що робить «швидку» передачу волокон, використовує щільне мультиплексування поділу хвиль (DWDM). Це по суті означає, що ви починаєте з (досить) великої кількості лазерів, кожен з яких передає різну довжину хвилі світла. Ви модулюєте біти до них, а потім передаєте їх усі разом через одне і те ж волокно - але з електричної точки зору, ви подаєте в модулятори ряд абсолютно окремих потоків бітів, потім оптично змішуєте виходи, тому все ці різні кольори світла одночасно проходять через одне волокно.

На приймальному кінці оптичні фільтри використовуються для розділення кольорів знову, а потім фототранзистор використовується для зчитування окремого потоку бітів.

введіть тут опис зображення

Хоча я показав лише 7 входів / виходів, реальні системи використовують десятки довжин хвиль.

Щодо того, що потрібно для передачі та прийому, то це означає, що маршрутизатори зворотних кісток є дорогими. Незважаючи на те, що для однієї пам’яті потрібно лише живити частину загальної пропускної здатності, ти все ще потребує досить швидкої оперативної пам’яті - зовсім небагато більш швидких частин маршрутизаторів використовують досить високий клас SRAM, тому в цей момент дані надходять з ворота, а не конденсатори.

Напевно, варто зауважити, що навіть при низьких швидкостях (і незалежно від фізичної реалізації, таких як DWDM) традиційно ізолювати частини найбільшої швидкості ланцюга на кілька маленьких частин. Наприклад, XGMII вказує зв'язок між 10 гігабіт / секундою Ethernet MAC та PHY. Хоча передача по фізичному середовищу є бітовим потоком (в кожному напрямку), несучи 10 гігабіт в секунду, XGMII задає 32-бітну шину між MAC та PHY, тому тактова частота на цій шині становить приблизно 10 ГГц / 32 = 312,5 МГц (ну, технічно сам тактовий сигнал наполовину менший - він використовує сигналізацію DDR, тому є дані як про зростаючі, так і за падіння краю тактової частоти). Тільки всередині PHY комусь доводиться мати справу з тактовою частотою багато ГГц. Звичайно, XGMII - не єдиний MAC / PHY-інтерфейс,


Дякуємо за детальну розробку, це важлива частина загадки.
stevie
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.