Які топології в основному не вивчені в машинному навчанні? [зачинено]


12

Геометрія та ШІ

Матриці, кубики, шари, стеки та ієрархії - це те, що ми могли б точно назвати топологіями . Розглянемо в цьому контексті топологію вищого рівня геометричного дизайну системи навчання.

З підвищенням складності часто корисно представляти ці топології як спрямовані графічні структури. Діаграми стану та робота Маркова з теорії ігор - це два місця, де зазвичай використовуються спрямовані графіки. Направлені графіки мають вершини (часто візуалізуються як закриті фігури), а краї часто візуалізуються як стрілки, що з'єднують фігури.

Ми також можемо представити GANs як спрямований графік, де вихід кожної сітки веде тренування іншої в змагальному режимі. GAN нагадують смугу Мебіуса топологічно.

Ми не можемо відкрити нові проекти та архітектури, не розуміючи не тільки математики конвергенції на оптимальне рішення або відстеження, але й топології мережевих з'єднань, які можуть підтримувати таке зближення. Це як спочатку розробити процесор, уявивши, що потрібно операційній системі, перш ніж записати операційну систему.

Щоб побачити, які топології ми ще НЕ розглядали, давайте спочатку розглянемо, які саме були.

Крок перший - видавлювання у другому вимірі

У 1980-х роках успіху було досягнуто з розширенням оригінальної конструкції персептрона. Дослідники додали другий вимір для створення багатошарової нейронної мережі. Розумна конвергенція була досягнута завдяки зворотному розповсюдженню градієнта функції помилки через градієнти функцій активації, ослаблених швидкістю навчання та приглушеними іншими мета-параметрами.

Крок другий - додавання розмірів до дискретного вхідного сигналу

Ми бачимо появу згорткових мереж на основі існуючих вручну налаштованих методів згортання зображень, що ввели розміри в мережу: вертикальне положення, кольорові компоненти та рамку. Цей останній вимір є критичним для CGI, заміни обличчя та інших морфологічних прийомів сучасного кінорежисуру. Без нього ми створюємо зображення, категоризацію та видалення шуму.

Крок третій - стеки мереж

Ми бачимо, що стопки нейронних мереж з'являються наприкінці 1990-х, де навчання однієї мережі контролюється іншою. Це введення концептуальних шарів, ні в сенсі послідовних шарів нейронів, ні в сенсі шарів кольору в зображенні. Цей тип шарів також не є рекурсійним. Це більше схоже на природний світ, де одна структура є органом всередині іншого зовсім іншого роду.

Крок четвертий - Ієрархії мереж

Ми бачимо ієрархії нейронних мереж, які часто з’являються в дослідженнях, що виникають у 2000-х та на початку 2010-х (Лаплакійський та інші), що продовжує взаємодію між нейронними сітками та продовжує аналогію мозку ссавців. Тепер ми бачимо метаструктуру, де цілі мережі стають вершинами у спрямованому графіку, що представляє топологію.

Крок п'ятий% mdash; Відправлення декартової орієнтації

У літературі почали зароджуватися некартезіанські систематично повторювані розташування клітин і зв’язки між ними. Наприклад, калібрувальні еквіваріантні конволюційні мережі та Ікосаедричний CNN (Taco S. Cohen, Maurice Weiler, Berkay Kicanaoglu, Max Welling, 2019) вивчає схему використання на основі опуклого регулярного ікосаедра.

Узагальнення

Шари мають звичайні значення функцій активації для вершин і матриць ослаблення, відображених на вичерпний набір направлених ребер між сусідніми шарами [1]. Шари згортання зображень часто бувають у двовимірних розміщеннях вершин із кутами ослаблення, відображеними на скорочений набір спрямованих ребер між сусідніми шарами [2]. Стеки мають цілі шаруваті сітки у вигляді вершин у мета-спрямованому графіку, і ці мета-вершини з'єднані в послідовності, кожен край є або навчальним мета-параметром, посиленням (зворотним зв'язком у реальному часі) або іншим контролем навчання . Ієрархії мереж відображають уявлення про те, що декілька елементів управління можуть бути агреговані та спрямовані на навчання нижчого рівня, або випадок, коли декілька навчальних елементів можуть управлятися однією мережею керівника вищого рівня.

Аналіз тенденції вивчення топологій

Ми можемо проаналізувати тенденції в архітектурі машинного навчання. У нас є три топологічні тенденції.

  • Глибина в вимірі причинності - Шари для обробки сигналу, де вихід одного шару активацій подається через матрицю ослаблених параметрів (ваг) на вхід наступного шару. У міру встановлення більшого контролю можна досягти лише більшої глибини градієнта заднього простягання назад.

  • Розмірність вхідного сигналу - від скалярного введення до гіперкубів (відео має горизонтальну, вертикальну, глибину кольору, включаючи прозорість та кадр.) Зауважте, що це не те саме, що кількість входів у сенсі сприйняття.

  • Топологічний розвиток - вищевказані два мають декартову природу. Розміри додаються під прямим кутом до існуючого розміру. Оскільки мережі проводяться в ієрархіях (як у Лаплакійських ієрархіях) та Мебіусі, як смуги (як у GAN), то тенденції є топографічними і найкраще представлені спрямованими графами, де вершини - це не нейрони, а менші їх мережі.

Які топології відсутні?

Цей розділ розкриває зміст заголовного питання.

  • Чи є якась причина, чому декілька мета-вершин, кожна з яких представляє нейронну мережу, можуть бути влаштовані таким чином, що декілька мета-вершин верховинців можуть спільно керувати кількома службовими мета-вершинами?
  • Чому зворотне поширення сигналу про помилку є єдиним нелінійним еквівалентом негативного зворотного зв’язку?
  • Чи не можна застосовувати співпрацю між мета-вершинами, а не наглядом, де є два взаємних ребра, що представляють елементи керування?
  • Оскільки нейронні мережі використовуються в основному для вивчення нелінійних явищ, чому забороняються інші типи замкнених шляхів у проектуванні сіток або їх взаємозв'язку?
  • Чи є причина, чому звук не може бути доданий до зображення, щоб відеокліпи можна було автоматично класифікувати? Якщо це так, чи є можливим вилучення фільму за сценарієм, і чи можна використовувати змагальну архітектуру для створення екранізацій та виробництва фільмів без системи кіностудії? Як виглядатиме ця топологія як спрямований графік?
  • Хоча ортогонально розташовані осередки можуть імітувати довільне розташування упаковки неортогональних вершин і ребер, чи ефективно це зробити в комп'ютерному зорі, де нахил камери, крім плюс-мінус 90 градусів, звичайний?
  • Чи ефективно розташовувати окремі осередки в мережах або мережах комірок в системах AI ортогонально в системах навчання, спрямованих на розуміння та складання природних мов чи штучне пізнання?

Примітки

  1. Штучні клітини в MLP використовують функції арифметичної передачі з плаваючою або фіксованою точкою, а не електрохімічні передачі імпульсів на основі амплітуди та порогу, заснованого на близькості. Вони не є реалістичним моделюванням нейронів, тому називати вершини нейронами було б помилкою для такого роду аналізу.

  2. Кореляція особливостей зображення та відносні зміни між пікселями в безпосередній близькості значно вищі, ніж у віддалених пікселів.


Я читав це питання раз чи два, і я повинен визнати, що не маю уявлення про те, що мені задають. зокрема, "топологія" не стосується жодної з названих вами концепцій. можливо ви маєте на увазі "архітектура"? але це, мабуть, не має сенсу ...... я думаю, що це питання прямо входить у категорію "навіть не".
kc sayz 'kc sayz'

Відповіді:


0

Топологія - це вивчення геометричних форм, диференційованих перетином та біфуркацією. Термін використовується для графічних аспектів мережевих архітектур. Цілком корисно використовувати його для розгляду розширення аналогії нейронної мережі з розумінням того, що АНН не дуже схожі на біологічні нейрони за способом їх активації. Через це важко обмежити дискусію топологічними проблемами, коли розглядається те, що є значною мірою недослідженим.

Парадигма службовців супервізора - це те, що використовуються стеки та ієрархії Лаплаціа, тоді як парадигма співпрацівників - це те, що використовують змагальні мережі. Хоча зворотний зв'язок негативний, генеративна модель (G) та дискримінаційна модель (D) насправді співпрацюють для досягнення мети, оскільки прихильник дияволів використовується в дискурсі для зближення істин. Безумовно, інші проекти, де вершини - це не штучні нейрони, а цілі елементи ANN або CNN.

Парадигми вчителя-студента та керівника-працівника, мабуть, лише дві. Для імітації нейронної пластичності потрібні дослідження садівника-рослини, ремонтника приладів та інженера-продукту.

Поширення зворотного сигналу помилки - не єдиний нелінійний еквівалент негативного зворотного зв'язку. Кругова топологія GAN також є негативними відгуками, як ви вказали при використанні аналогії смуги Möbius. Однак слід думати більше.

Цікава співпраця між метавершинами. Чи повинна співпраця бути типовим противником? Чи можуть позитивні відгуки бути корисними в топологіях штучного інтелекту? Власники фермерських господарств та водії вантажівок для роздачі їжі купують продукти в супермаркетах, які закінчуються ланцюжком процесів, їх роль - лише частина. Більші цикли у спрямованих графічних зображеннях топологій та конструкцій, ймовірно, можуть корисно використовувати позитивні чи негативні відгуки.

Штучне виробництво кінофільмів може вийти з таких досліджень, як робота Корнелл U над створенням відео з тексту - Лі, Мін, Шен, Карлсон та Карін .


0

Край хаосу та машинного навчання; та переваги у прийнятті рішень


Прямий відповідь на ваше запитання : -

Край хаосу


Пояснення Layperson : -

( https://www.lucd.ai/post/the-edge-of-chaos# !)


Про що відповідає ця відповідь : -

Край хаосу в теорії хаосу може бути важливою темою дослідження штучного інтелекту.

Що таке край хаосу? Це поле вважається існуванням у широкому спектрі систем. Він має багато застосувань у таких сферах. Це поле є перехідною зоною між взаємодією між порядком і безладом.

Мене цікавить перетин між ШІ та теорією хаосу. Край хаосу слугує потенційною топологією, яка значною мірою не вивчена в машинному навчанні.

Це багата сфера, яка пропонує великий потенціал. І те, і інше, значною мірою невідоме і недооцінене.

Я вивчу переваги аналізу такого поля у цій відповіді. Переваги проявляються при прийнятті рішень, наприклад, оптимальний спосіб інвестувати та керувати робочою силою в організації.


Технічне пояснення : -

"Матриці, кубики, шари, стеки та ієрархії - це те, що ми могли б точно назвати топологіями. Розглянемо в цьому контексті топологію вищого рівня геометричним дизайном системи навчання". ~ Дуглас Дазеєко, відкриваючи плакат

Порівняйте це з цим витягом із реферату статті нижче: -

"... За допомогою динамічного аналізу стабільності на різних моделях комп'ютерного зору ми знаходимо прямі докази того, що оптимальна продуктивність глибокої нейромережі відбувається поблизу точки переходу, що розділяє стійкі та хаотичні атрактори. ..." Фенг, Лінг та Чой Хенг Лай. - "Оптимальний машинний інтелект біля краю хаосу". arXiv передрук arXiv: 1909.05176 (2019).

-

"Край хаосу - це перехідний простір між порядком і безладом, який гіпотезується про існування в самих різних системах. Ця перехідна зона є областю обмеженої нестабільності, яка породжує постійну динамічну взаємодію між порядком і безладом.

Хоча ідея краю хаосу абстрактна і неінтуїтивна, вона має багато застосувань у таких сферах, як екологія, управління бізнесом, психологія, політологія та інші сфери суспільної науки. Фізики показали, що адаптація до краю хаосу відбувається майже у всіх системах із зворотним зв'язком. "Співробітники Вікіпедії". - "Край хаосу". Вікіпедія, Вільна енциклопедія . Вікіпедія, Вільна енциклопедія, 10 вересня 2019. Веб. 22 вересня 2019 року.


Переваги вивчення такого поля : -

"[...] Стратегія, протокол, команди, відділи, ієрархії. Все ретельно організоване для оптимальної роботи.

Або принаймні, так воно і повинно бути. Але коли ми застосовуємо об'єктив теоретика складності до бізнесу, який ми робимо, ми бачимо, що питання є досить складнішими. Ми вже не розглядаємо організації як організації, або відділи як відділи, а як складні адаптивні системи, найбільш корисні для розуміння у трьох частинах:

РОБОТА

Використання ментальних моделей для прийняття кращих рішень на роботі Професійне життя всіяне складним вибором. Я готовий до цієї акції? Кого з моїх менеджерів я повинен обрати наставником? Що слід їсти в обід? Немає дурного способу послідовно здійснювати кращий спосіб дій (навіть найкращі з нас помиляються), але за допомогою правильних інструментів можна максимізувати шанси на успіх.

По-перше, працівники (за складністю говорять: гетерогенні агенти). У кожного працівника є різні, що розвиваються, правила прийняття рішень, які відображають навколишнє середовище та намагаються передбачити зміни в ньому. По-друге, співробітники, що взаємодіють один з одним, і структури, які ці взаємодії створюють - вчені називають такою появою. Нарешті, всебічна структура, що виникає, веде себе як система вищого рівня зі властивостями та характеристиками, відмінними від властивостей її основних агентів. Ця остання частина є причиною, яку ми часто кажемо: «ціле більше, ніж сума його частин».

Враховуючи прагнення керівників до контролю, складність далеко не зручна реальність. Замість того, щоб зіткнутися з жорстокою реальністю системи, яку вони працюють для підтримки, менеджери часто працюють в силосних установках, створюючи моделі та механізми, які накладають вінір визначеності. Роблячи це, вони допомагають собі та своїм колегам приймати рішення з меншою кількістю змінних. Досягнення цілей, поставлених цими моделями, дає свідчення успіху, але це спрощений успіх, який може не відповідати інтересам системи в цілому.

Наприклад, розміщення жорсткого пріоритету щодо максимізації прибутку акціонерів дає зрозуміти працівникам: у випадку складного компромісу кращим варіантом є варіант, який піддається негайній прибутковості. Але, звичайно, всі ми знаємо, що скорочення витрат та інвестицій для збільшення короткострокової маржі може завдати шкоди довгостроковому здоров’ю компанії. Тільки використовуючи складність, ми можемо ефективно збалансувати конкуруючі цінності та пріоритети (та наслідки рішень щодо всіх). [...] "- Фресно, Бланка Гонсалес дел." Наказ від хаосу: як застосувати теорію складності на роботі: BBVA. " НОВИНИ BBVA , BBVA, 4 грудня 2017 р., < Www.bbva.com/uk/order-from-chaos-how-to-apply-complexity-theory-at-work/ >.


Подальше читання : -


Джерела та довідники : -


-1

Це може бути поза темою. Якщо так, видаліть його.

В електронній схемі у нас є логічні блоки - генератори, тригери, комірки пам'яті, селектори, alus, fpus, шини та багато інших мікросхем. І від цього у нас є комп’ютери, а з наступного рівня - комп'ютерні мережі ...

Для машинного навчання ми повинні мати подібну організацію речей, але якщо у нас 64-бітні комп'ютери, наші нейронні мережі можуть мати більш складні входи / виходи І більш логічні функції, ніж визначено в будь-якій мові програмування.

Отже, для вхідних бітів X у нас є стан X ^ (2 ^ 2) для одного вихідного біта, а 2 ^ X біт для вибору необхідної логічної функції.

Отже, ми повинні послідовно вивчати ці функції, виділяючи необхідні, як перші opencv-фільтри, як для прикладів.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.