Наскільки схожі та різні штучні нейронні мережі та біологічні нейронні мережі?


16

Я неодноразово чув, що «Нейронні мережі - найкраще наближення, яке ми маємо для моделювання людського мозку», і я думаю, що загальновідомо, що Нейрові мережі моделюються за нашим мозку.

Я сильно підозрюю, що цю модель спростили, але наскільки?

Наскільки, скажімо, ванільний NN відрізняється від того, що ми знаємо про людський мозок? Ми навіть знаємо?


1
Чудове запитання. Багато що можна сказати, тут сказано psychology.stackexchange.com/questions/7880/…
Ендрю Батлер

1
Я вважав, що це повинно бути питанням, на яке відповіли на ai.SE. Також мені цікаво!
Андреас Сторвік Страуман

Штучні нейрони та біологічні нейрони дуже схожі. Форма їх зв'язків також досить схожа, хоча біологічні нейрони мають багато ускладнень у процесі взаємодії, які здаються значною мірою невідомими. Однак використання цих нейронів кардинально відрізняється, тобто є причиною того, що вони об'єднуються в мережі та використовуються. ANN використовуються для наближення функцій і тим самим для вирішення проблем. Хоча тільки Бог знає, чому БНН такі, якими вони є, і яке їх призначення в першу чергу. Тож, не дуже цікаве питання, я думаю ...
Євгеній

Відповіді:


10

Наскільки штучні нейронні мережі (ANN) відрізняються від біологічних нейронних мереж (BNN), залежить від того, що ви шукаєте. Всі ми знаємо, що ANNs натхненні біологічними.
Структурні відмінності: Взагалі, нейронна мережа складається з чотирьох компонентів:
введіть тут опис зображення

  • нейрони
  • топологія: шлях зв’язку між нейронами
  • ваги
  • алгоритм навчання

У разі штучної нейронної мережі початковий стан і ваги призначаються випадковим чином . Хоча для біологічних нейронних мереж міцність зв’язків між нейронами та структурою зв’язків починається не випадково. Початковий стан генетично отриманий і є побічним продуктом еволюції .
У навчанні BNN виходить із взаємозв'язків між безліччю нейронів у мозку. Ці взаємозв'язки змінюють конфігурацію, коли мозок відчуває нові подразники . В зміни призводять до появи нових зв'язків, зміцнення існуючих зв'язків і видалення старих і невикористаним .
ANN навчаються з нуля за допомогою фіксованої топології(згадайте зміни топології у випадку BNN), що залежить від проблеми, яка вирішується. Поточний механізм не змінює топологію ANN, а ваги випадково ініціалізуються та регулюються за допомогою алгоритму оптимізації.

Інший контраст полягає в кількості нейронів у мережі. Типовий ANN складається з сотень, а може й тисяч нейронів; біологічна нейронна мережа мозку людини складається з мільярдів . Ця кількість варіюється від тварини до тварини.
Більше можна знайти тут і тут .


1
Чи генерується міцність зв'язку? Ви впевнені в цьому?
DuttaA

2
Спочатку сили зв’язку новонародженої дитини визначаються генетично. Після цього вони змінюються здебільшого на основі зовнішніх подразників.
Угнес

2
Штучні нейронні мережі не обмежуються фіксованими топологіями (див. NEAT, TWEANN та ін.)
Ендрю Батлер

1
У ANN для розпізнавання зображень, безумовно, є набагато більше, ніж просто тисячі нейронів. Напевно, багато мільйонів.
maaartinus

Відповідь я написав на основі загальних ANN, знайдених сьогодні, не вважаючи найкращих ANN. З удосконаленням технологій покращуються і АНН; наближаючись до BNN. Дякую, AndrewButler та maaartinus, що згадали про них.
Угнес

5

Вони вже не близько!

[Штучний] Нейронні сітки розпливчасто надихають зв’язками, які ми спостерігали раніше між нейронами мозку. Спочатку, ймовірно, був намір розробити ANN для наближення біологічних мізків. Однак сучасні робочі ANN, що ми бачимо їх застосування в різних завданнях, не розроблені для того, щоб надати нам функціональну модель мозку тварин. Наскільки я знаю, не існує жодного дослідження, яке б стверджувало, що вони знайшли щось нове в біологічному мозку, вивчивши зв'язки та розподіл ваги, скажімо, моделі CNN або RNN.


ЛОЛ. Я згоден. Єдине, що у них спільне, це це. Вони є схемами в найбільш абстрактному сенсі цього слова. Можливо, є ще одне. Природа спробувала купу матеріалів, і ми з'явилися. Потім ми спробували купу речей і з'явилися XNN (де X - один з A, C або N). Обидві мережі є результатом великої кількості відмов.
Фахристиян

3

Поширене твердження про те, що Штучні нейронні мережі надихають нервову структуру мозку, лише частково вірно.

Це правда, що Норберт Вінер, Клод Шеннон, Джон фон Нейман та інші розпочали шлях до практичного ШІ, розробивши те, що вони тоді називали електронним мозком. Це теж правда

  • Штучні мережі мають функції, що називаються активаціями,
  • Проводяться в багатьох відносинах, таких як біологічні нейрони та
  • Призначені для навчання оптимальної поведінки,

але це ступінь подібності. Клітини в штучних мережах, таких як MLP (багатошарові персептрони) або RNN (повторювані нейронні мережі), не схожі на клітини в мозкових мережах.

Перцептрон, перший програмний удар в масив речей, що активуються, не був масивом нейронів. Це було застосування базових зворотних зв'язків з градієнтами, які були загальноприйнятими в техніці ще з тих пір, як відцентровий губернатор Джеймса Ватта був математично модельований Гауссом. Послідовне наближення - принцип, який використовувався століттями, застосовувався для поступового оновлення матриці ослаблення. Матриця помножена на вектор, що подає масив однакових функцій активації для отримання виводу. Це воно.

Проекція у другому вимірі на багатошарову топологію стала можливою завдяки усвідомленню того, що якобіан може бути використаний для отримання коригуючого сигналу, який при належному розподілі як негативний зворотний зв'язок на шари міг би налаштувати матрицю ослаблення послідовності Перцептрони і мережа в цілому сходиться задовільною поведінкою. У послідовності перцептронів кожен елемент називається шаром. Механізм зворотного зв'язку зараз називається зворотним поширенням.

Математика, що використовується для корекції мережі, називається градієнтним спуском, тому що це як зневоднений сліпий чоловік, який використовує градієнт місцевості, щоб знайти воду, і проблеми з цим також схожі. Він може знайти місцеві мінімуми (низька точка), перш ніж він знайде прісну воду і сходиться зі смертю, а не гідратацією.

Новіші топології - це доповнення вже існуючих робіт зі зведення, що використовуються для відновлення цифрових зображень, сортування пошти та графічних додатків для створення сімейства топологій CNN та геніального використання того, що схоже на хімічну рівновагу з хімії першого року для поєднання критеріїв оптимізації, що створюють сімейство топологій GAN.

Deep - це просто синонім численних у більшості контекстів AI. Іноді це призводить до складності в топології вищого рівня (над продуктами векторної матриці, активаціями та згортками).

Активні дослідження тривають ті, хто знає, наскільки ці глибокі мережі відрізняються від того, що нейрологічні вчені виявили десятиліття тому в тканинах мозку ссавців. Сьогодні відкриваються більше диференціаторів, оскільки вивчення схеми та нейрохімії в мозку досліджується з геномної точки зору.

  • Нейронна пластичність ... зміна топології ланцюга через зростання дендриту та аксіоми, смерть, перенаправлення та ін. Морфінг
  • Топологічна складність ... велика кількість аксіом перетинаються без взаємодії і навмисно захищені від перехресних розмов (незалежних), швидше за все, тому що було б невигідно дозволити їм з'єднуватися [примітка 1]
  • Хімічна сигналізація ... Мізки ссавців мають десятки сполук нейропередавача та нейрорегуляції, які мають регіональний вплив на схему [примітка 2]
  • Органели ... живі клітини мають багато підструктур, і відомо, що кілька типів мають складні зв’язки з передачею сигналу в нейронах
  • Зовсім інша форма активації ... активації в загальних штучних нейронних мережах - це просто функції з порядковими скалярами як для діапазону, так і для домену ... Нейрони ссавців функціонують як функції як амплітуди, так і відносної тимчасової близькості вхідних сигналів [примітка 3]

[1] Топологія є іронічно і підмножиною архітектури (у сферах дизайну будівель, забезпечення мереж, аналізу WWW та семантичних мереж), але в той же час топологія є набагато більше, ніж архітектура, в радикальному центрі обох А.І. математика та ефективна актуалізація в системах управління

[2] Роль хімії може бути важливою для вивчення соціальної та репродуктивної поведінки, що взаємозв'язується з поширенням інформації ДНК, комплексно пов'язуючи навчання на рівні екосистеми та мозку. Крім того, довгострокове та короткотермінове навчання поділяє навчання мозку також на дві різні можливості.

[3] Вплив часу синхронізації вхідних сигналів на біологічну активацію нейрона розуміється певною мірою, але це може впливати набагато більше, ніж на вихід нейрона. Це також може вплинути на пластичність і хімію, і органели можуть зіграти певну роль у цьому.

Підсумок

Бібліотеки машинного навчання - це настільки ж симуляція людського мозку, скільки ляльки Барбі та Кена імітують справжню пару.

Тим не менш, у галузі глибокого навчання виникають чудові речі, і це не здивувало б мене, якби автономні транспортні засоби стали повністю автономними в наше життя. Я не рекомендував би жодному студенту ставати розробником. Комп'ютери, мабуть, кодують набагато краще, ніж люди, і порядки швидше, а можливо, і незабаром. Деякі завдання не мають такого виду, як розвивалася біологія, і комп'ютери можуть перевищити людські можливості лише через кілька десятиліть досліджень, зрештою перевищивши продуктивність людини на кілька порядків.


Існує різка різниця між керуванням автомобілем та програмуванням комп'ютера. Керування автомобілем є чітко визначеною задачею, тому може бути спосіб виразити це проблемою наближення функції, тому нейронні мережі можуть зазвучати. ​​Функція використання керування автомобілем на основі вводу існує і може бути приблизний. Хоча програмування комп’ютера насправді не є завданням, це послідовність рішень, які людина робить під час роздуму над ситуацією. Мистецтво перетворювати неприємності на проблеми.
Євгеній
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.