Ви запитаєте:
- Чи справді це можливо, як це пропонують автори? За даними статті, їх результати дуже ефективні і завжди стискають дані до менших розмірів. Чи не буде розмір словника величезним?
Так, звісно. Навіть для їх обраного вручну прикладу ("ШВИДКИЙ СРІБНИЙ ФОКС СТРІЛЯЄТЬСЯ ЛЕГИЙ ДОГ") вони не досягають стиснення, оскільки словник містить кожну 4-байтну підрядку тексту (мінус 4 байти за одне повторення " THE ") ... і" стиснута "версія тексту повинна містити весь словник, плюс усе це просте число.
- Не вдалося це використати для повторного стиснення стислих даних за допомогою того ж алгоритму? Очевидно, і було показано, що такі методи (де стислі дані повторно стискаються якомога більше разів, різко зменшуючи розмір файлу) неможливі; Дійсно, між набором усіх випадкових даних та стислих даних не було б ніякого поділу. То чому це відчуває, що це можливо?
Знову вам здається, що ви добре розумієте ситуацію. Ви інтуїтивно зрозуміли, що жодна схема стиснення ніколи не може бути ефективною на всіх входах, адже якби вона була, ми могли б просто застосувати її знову і знову, щоб стиснути будь-який вхід до одного біта - а потім до небуття!
Інакше кажучи: Після того, як ви стиснули всі .wav-файли до .mp3, вам не вдасться покращити розмір файлу, застебнувши їх. Якщо ваш MP3-компресор зробив свою роботу, не залишиться жодних зразків для використання компресора ZIP.
(Це ж стосується шифрування: якщо я беру файл нулів і шифрую його відповідно до мого криптографічного алгоритму вибору, отриманий файл краще не бути компресійним , інакше мій алгоритм шифрування просочує "шаблон" у свій вихід!)
- Навіть якщо техніка ще не досконала, очевидно, її можна оптимізувати і сильно вдосконалити. Чому це не більш широко відоме / вивчене? Якщо справді ці твердження та експериментальні результати правдиві, чи не могло це революціонізувати обчислення?
Ці твердження та експериментальні результати не відповідають дійсності.
Як вже зазначав Том ван дер дер Занден, "алгоритм стиснення" Чакраборті, Кар та Гучайта є недоліком у тому, що він не тільки не досягає жодного коефіцієнта стиснення, але і незворотній (по математиці, "не бієктивний"): безліч текстів, які всі «стискають» на одне зображення, тому що їх алгоритм в основному є множенням, а множення є комутативним.
Вам повинно бути добре, що ваше інтуїтивне розуміння цих понять миттєво привело вас до правильного висновку. І якщо ви можете зекономити час, вам слід пошкодити авторів статті, які явно витратили багато часу на роздуми над цією темою, не розуміючи її взагалі.
Каталог файлів на один рівень над URL-адресою, яку ви опублікували, містить 139 «статей» такої ж якості, всі, мабуть, прийняті до «Матеріали Міжнародної конференції з нових досліджень у галузі обчислювальної техніки, інформації, зв'язку та застосувань». Це здається шахрайською конференцією звичайного типу. Мета таких конференцій - дозволити шахрайським науковцям заявляти про "публікацію в журналі", а також дозволяти недобросовісним організаторам заробляти тонну грошей. (Докладніше про підроблені конференції, ознайомтеся з цією темою reddit або різними публікаціями StackExchange на цю тему .) Шам-конференції існують у кожному полі. Просто навчіться довіряти своїм інстинктам і не вірити всьому, що ви прочитали у "конференції", і ви все зробите чудово.