Що таке розріджена трансформація Фур'є?


46

MIT останнім часом трохи шумить щодо нового алгоритму, який рекламується як швидше перетворення Фур'є, яке працює на конкретних видах сигналів, наприклад: " Швидше перетворення Фур'є названо однією з найважливіших світових технологій, що розвиваються ". Журнал MIT Technology Review говорить :

За допомогою нового алгоритму, який називається розрідженим перетворенням Фур'є (SFT), потоки даних можуть оброблятися в 10-100 разів швидше, ніж це було можливо при FFT. Прискорення може відбутися тому, що інформація, яка нас цікавить, має велику структуру: музика не є випадковим шумом. Ці значущі сигнали зазвичай мають лише частину можливих значень, які сигнал може прийняти; технічний термін для цього полягає в тому, що інформація є "рідкою". Оскільки алгоритм SFT не призначений для роботи з усіма можливими потоками даних, він може зайняти певні ярлики, які інакше не доступні. Теоретично алгоритм, який може обробляти лише розріджені сигнали, значно обмежений, ніж FFT. Але "розрідження є скрізь", - зазначає співрозмовник Катабі, професор електротехніки та інформатики. "Це в природі; це" s у відеосигналах; це в звукових сигналах ".

Чи може хтось тут надати більш технічне пояснення того, що насправді є алгоритмом і де він може бути застосований?

EDIT: Деякі посилання:

Відповіді:


40

Ідея алгоритму така: припустимо, що у вас частота сигналу, яка є рідкою в частотній області. Це означає, що якби ви обчислили його дискретне перетворення Фур'є , було б невелика кількість виходів які є ненульовими; інші незначні. Один із способів отримання потрібних виходів - використовувати FFT на всій послідовності, а потім вибрати ненульові значення.NkNNkkk

Представлений тут алгоритм розрідженого перетворення Фур'є є методикою обчислення тих виходів з меншою складністю, ніж метод на основі FFT. По суті, оскільки вихід дорівнює нулю, ви можете зекономити певні зусилля, взявши ярлики всередині алгоритму, щоб навіть не генерувати ці значення результатів. Хоча FFT має складність , розріджений алгоритм має потенційно нижчу складність для випадку з обмеженим спектром.kNkO(nlogn)O(klogn)

Для отримання більш загальному випадку, коли спектр є «видом розрідженого» , але є більше , ніж значення відмінних від нуля (наприклад , для ряду тонів , вбудованого в шумі), вони представляють собою різновид алгоритму , який оцінює на найбільших виходах, з часова складність , яка також може бути менш складною, ніж FFT.kkO(klognlognk)

Згідно з одним графіком їх результатів (відтвореним на зображенні нижче), кроссовер для покращення продуктивності щодо FFTW (оптимізована бібліотека FFT, зроблена іншими хлопцями на MIT) знаходиться приблизно в точці, де тільки -ти до -ці коефіцієнти перетворення на виході є ненульовими. Крім того, у цій презентації вони вказують, що розріджений алгоритм забезпечує кращу ефективність при .12111210Nk[2000,106]

введіть тут опис зображення

Ці умови обмежують застосованість алгоритму до випадків, коли ви знаєте, що в спектрі сигналу може бути мало значних піків. Одним із прикладів, які вони наводять на своєму веб-сайті, є те, що в середньому 8 -8-блокові пікселі, які часто використовуються для стиснення зображень та відео, майже в 90% розріджуються в частотній області, і, таким чином, можна отримати користь від алгоритму, який використовував цю властивість. Цей рівень розрідженості не здається квадратним з прикладним простором для цього конкретного алгоритму, тому це може бути просто наочним прикладом.

Мені потрібно ще трохи ознайомитися з літературою, щоб краще зрозуміти, наскільки практична така методика для використання в реальних проблемах, але для певних класів застосувань це може бути придатною.


2
Так це в основному втрата FFT? Як MP3-кодер?
ендоліт

3
@endolith: Я не впевнений, що ставлю це так. Можливо, більш аналогічний алгоритму обрізаного FFT, який обчислює лише підмножину результатів. Твердження полягає в тому, що якщо вхідний сигнал -розмірний, то виходи обчислюються точно. kk
Джейсон R

Цікаво, як це проти алгоритму Ґерцеля (або їх сімейства). Здається, єдина відмінність полягає в тому, що в Ґерцелі ви знаєте, з чого шукаєте.
Спейсі

5
@endolith: Стиснення MP3 є втратним, оскільки коефіцієнти квантовані; не тому, що зберігаються лише верхні k коефіцієнти. Sparse FFT = "що являє собою k-коефіцієнти, що мінімізують різницю з вхідним сигналом". Кодування mp3-кадру = "які квантовані коефіцієнти та рівні квантування, які мінімізують (перцептивну) помилку з урахуванням бюджету N біт для зберігання коефіцієнтів та коефіцієнтів масштабу".
пікенети

1
Коли їх викидають, це побічний ефект квантування (значення округлюється до 0)
пікенети

7

Я не читав статті про sFFT, але відчуваю, що ідея закріпити FFT позаду використовує пріоритет k-розрідженості. Отже, не потрібно обчислювати всі записи коефіцієнтів FFT, а лише обчислювати їх k. Отже, для k-розрідженого сигналу складність становить O (klog n) замість O (nlog n) для звичайної FFT.

У будь-якому випадку щодо коментарів @rcmpton, кажучи: "Ідея стисненого зондування полягає в тому, що ви можете відновити розріджені дані з розріджених випадкових вибірок, взятих з іншого домену (наприклад, відновити розріджені зображення з випадкових даних рідкої частоти (тобто МРТ)) . " Питання в тому, що таке "розріджені випадкові вибірки"? Я думаю, що це можуть бути зразки, зібрані шляхом випадкового проектування розріджених даних на деякий нижній (вимірювальний) підпростір.

І як я зрозумів, теоретичні рамки компресійного зондування в основному складаються з 3 питань, розрідженості, вимірювання та відновлення. За рідкісністю воно стосується пошуку розріджених уявлень для певного класу сигналів, що є завданням вивчення словника. За допомогою вимірювання це стосується пошуку ефективного способу (обчислювальної ефективності та відновлюваності) для вимірювання даних (або проектування даних на менший простір вимірювання), що є завданням проектування матриці вимірювань, наприклад, випадкової матриці Гаусса, структурованої випадкової матриці,. ... І відновленням є рідкісні задачі на регульовану лінійну інверсію l0, l1, l1-l2, lp, l-group, blabla ..., і алгоритми, що випливають, є різними, відповідність переслідувань, м'яке порогове значення, жорстке регулювання, основа гонитви, байєсиан, ....

Це правда, що "cs - це мінімізація норми L1", а норма L1 є основним принципом для cs, але cs - це не тільки мінімізація норми L1. Окрім вищезгаданих 3 частин, є також деякі розширення, як-от структуроване (групове або модельне) стискання зондування, де також експлуатується структурована розрідженість, і, як доведено, значною мірою покращує здатність до відновлення.

Як висновок, cs - це великий крок у теорії вибірки, що забезпечує ефективний спосіб вибірки сигналів за умови, що ці сигнали є достатньо рідкими . Отже, cs - теорія вибірки , кожен, хто збирається використовувати її як якусь техніку класифікації або розпізнавання, вводить в оману принцип. І іноді я знаходжу якийсь документ під назвою "на основі стиснення зондування .....", і я думаю, що принцип такої роботи використовує l1-мінімізацію замість cs, і краще використовувати "l1-мінімізацію на основі .... ".

Якщо я помиляюся, виправте мене, будь ласка.


Ласкаво просимо на DSP.SE Це великий внесок.
Phonon

6

Я переглянув документ і, думаю, отримав загальне уявлення про метод. "Таємна мать" методу полягає в тому, як отримати розріджене подання вхідного сигналу в частотній області. Попередні алгоритми використовували вид грубої сили для розташування домінуючого розрідженого коефіцієнта. Цей метод використання замість цього методу, який називається "відновлення простору" або "стисненого зондування", є статтею вікі . Точний метод розрідженого відновлення, який використовується тут, схожий на "жорстке порогове значення" - один з домінуючих методів рідкого відновлення.

Техніка PS з розрідженим відновленням / стисненим зондуванням та підключеним до нього мінімізацією L1 багато використовувала в сучасній обробці сигналу і особливо у зв'язку з перетворенням Фур'є. Насправді це необхідно знати для сучасної обробки сигналів. Але до того, як перетворення Фур'є було використано як один із методів вирішення проблеми рідкого відновлення. Тут ми бачимо навпаки - розріджене відновлення для перетворення Фур'є.

Хороший сайт для огляду стисненого зондування: nuit-blanche.blogspot.com/

Відповідь PPS на попередній коментар - якщо вхідний сигнал не дуже рідкий, він втрачає.

Ви можете виправити мене, якщо я помилився з методом.


Папір FFT не є стисненим зондуванням. Ідея стисненого зондування полягає в тому, що ви можете відновити розріджені дані з розріджених випадкових вибірок, взятих з іншого домену (наприклад, відновити розріджені зображення з випадкових даних з низькою частотою (тобто МРТ)). Хоча це може скоротити час придбання, це збільшує обчислювальну вартість. Папір FFT відрізняється тим, що у вас є всі ваші дані в обох областях, і мета полягає в тому, щоб обчислення відбулося швидко.
dranxo

Ви помиляєтесь щодо стисненого зондування.
mirror2image

1
Чи можете ви докладно?
dranxo

Стиснене зондування - це величезна область з розмитими краями, яка включає / підключається не тільки до відновлення як такої, але до подібних областей регуляризація, мінімальна складність переслідувань і т. Д. Спочатку це «проблема обмеженості обмеженості , x в , R ^ n \ | x \ | _0 <k $, але згодом воно стає набагато більше брад. Почніть з читання вікі х = у Р т у я н , м > > п ш я T ч в г ö н сек т р я п тLpAx=yRmyin,m>>nwithconstraint
mirror2image

Ні. Стиснене зондування означає, що ви вирішуєте відповідно до . Існує багато далекосяжних застосувань, але якщо ви не посилаєтесь на теорему Кандес-Ромберг-Дао в якийсь момент, ви плутаєте людей, якщо ви маркуєте свою роботу "стислим зондуванням". Ось посилання: www-stat.stanford.edu/~candes/papers/spm-robustcs-v05.pdfmin|x|1Ax=y
dranxo
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.