Чи може нейронна мережа виявити праймери?


21

Я не шукаю ефективного способу пошуку праймес (що, звичайно, є вирішеною проблемою ). Це більше питання "що робити".

Отже, теоретично: Чи могли б ви тренувати нейронну мережу, щоб передбачити, чи є задане число n складеним чи простим? Як можна було б прокласти таку мережу?


1
Погляньте на cs.indstate.edu/~legri/prime06.pdf
VividD

2
Якщо праймери слідують шаблону, і хтось просто трапиться тренувати нейронну мережу з достатньою кількістю прихованих вузлів, щоб визначити межу класифікації, я вважаю, що це спрацює. Однак ми не знаємо, чи існує така класифікація, і навіть якби вона була, нам доведеться довести, що таке межа, щоб довести, що нейронна мережа дійсно знайшла правильну схему.
quintumnia

Відповіді:


11

fлооr(х)

02н-1н

  1. Чи можна, просто запам'ятовуючи праймери за діапазоном цілих чисел?
  2. Чи може це, навчившись розраховувати та застосовувати визначення простих?
  3. Чи може це, вивчивши відомий алгоритм?
  4. Чи можна, розробивши власний новий алгоритм під час навчання?

Пряма відповідь - так, і це вже було зроблено відповідно до пункту 1. вище, але це було зроблено шляхом надмірного розміщення, не вивчаючи метод виявлення простих чисел. Ми знаємо, що людський мозок містить нейронну мережу, яка може виконати 2., 3. і 4., тож якщо штучні мережі розвинені настільки, наскільки вони думають, що вони можуть бути, то відповідь - це так. Не існує жодного контрдоказу, який би виключав будь-який із спектра можливостей на момент написання цієї відповіді.

Не дивно, що була проведена робота з підготовки штучних мереж для тестування простих чисел через важливість прайметів у дискретній математиці, її застосування до криптографії та, більш конкретно, для криптоаналізу. Ми можемо визначити важливість детектування цифрових мереж простих чисел у дослідженні та розробці інтелектуальної цифрової безпеки в таких роботах, як Перше дослідження нейронного мережевого підходу в криптосистемі RSA , Gc Meletius et al. співавт., 2002 . Прив’язка криптографії до безпеки наших країн також є причиною того, що не всі сучасні дослідження в цій галузі будуть публічними. Ті з нас, які можуть мати дозвіл і експозицію, можуть говорити лише про те, що не є класифікованим.

З точки зору цивільного життя, важлива спрямованість досліджень - робота по виявленню новинок. Такі люди, як Маркос Марку та Самер Сінгх, наближаються до виявлення новинок з боку обробки сигналів , і тим, хто розуміє, що штучні мережі, по суті, є цифровими сигнальними процесорами, які мають багатоточкові можливості самонастроювання, можуть бачити, як їх робота стосується безпосередньо цього питання. Марку та Сінгх пишуть: "Існує безліч застосунків, де виявлення новинок надзвичайно важливе, включаючи обробку сигналів, комп'ютерний зір, розпізнавання шаблонів, пошук даних та робототехніку".

З боку когнітивної математики розвиток математики сюрпризу, наприклад Навчання з сюрпризом: теорія та додатки» (дипломна робота), Мохаммаджавад Фараджі, 2016, може сприяти тому, що почали Ергі та Шульц.


1

Теоретично нейронна мережа може скласти карту будь-яку задану функцію ( джерело ).

Однак якщо ви тренуєте мережу з номерами 0 до N, ви не можете гарантувати , що мережа буде правильно класифікувати номера за межами цього діапазону ( n > N).

Така мережа була б звичайною мережею прямої передачі ( MLP ), оскільки повторність не додає нічого до класифікації даного входу. Кількість шарів та вузлів можна знайти лише шляхом спроб та помилок.


1
Універсальні теореми застосовуються до безперервних функцій на компактних підмножинах. Prime / not prime - це не така функція.
pasaba por aqui

1
@pasabaporaqui: У цьому випадку функцію первинності можна досить добре наблизити безперервною функцією з піками при значеннях простих чисел. Таким чином, NN може створити 90% шансів стати простим для 6,93 - це явно нісенітниця, але якщо ви дискретизували входи та виходи, вам не дуже важливо, що передбачає NN для нецілих чисел. Я думаю, що ця відповідь в основному правильна.
Ніл Слейтер

1

Я студент-дослідник університету Prairie View A&M. Я подумав, що прокоментую, тому що я лише витратив кілька тижнів, переглядаючи модель MLPRegressor, щоб передбачити n-е просте число. Нещодавно він натрапив на наднизький мінімум, де перші 1000 екстраполяцій поза навчальними даними призвели до помилки менше, ніж 0,02 відсотка. Навіть при 300000 прайме, це було близько 0,5 відсотка. Моя модель була простою: 10 прихованих шарів, тренованих на одному процесорі менше 2 годин.

Для мене це ставить питання: "Чи є розумна функція, яка виробляє n-е просте число?" Зараз алгоритми обчислювально стають дуже оподатковуваними для крайніх російських. Ознайомтеся з часовими розривами між останніми найбільшими виявленими буквами. Деякі з них на відстані років. Я знаю, що доведено, що якщо така функція існує, вона не буде багаточленною.


Ласкаво просимо на AI.SE! Зауважте, що у розділі відповідей ми допускаємо лише відповіді (на відміну від коментарів), тому я трохи уточнив вашу публікацію, щоб зосередитись на вирішенні питання. Для ознайомлення з нашим сайтом дивіться екскурсію .
Бен N

Привіт Коді, це було недавно. Але я хотів би поговорити з вами щодо тесту, який ви провели. Чи бажаєте ви спілкуватися в чаті про те, що ви робили і що ви сприймали? Я хотів би побачити, чи є можливість експериментувати з цим далі.
momomo

-1

Так, це можливо, але врахуйте, що проблема цілочислення з цілим числом є проблемою NP-щось і BQP .

через це неможливо, що нейронна мережа, заснована виключно на класичних обчисленнях, знаходить просте число зі 100% точністю, якщо тільки P = NP.


Як пояснюється в питанні, перевірте, чи число є простим, це не проблема NP.
pasaba por aqui
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.