Скажімо, у нас є векторне подання будь-якого цілого числа величини n, V_n
Цей вектор є входом до алгоритму машинного навчання.
Перше запитання: Для якого типу представлень можна дізнатися первинність / композитність n за допомогою нейронної мережі або якогось іншого векторного бітового відображення ML. Це суто теоретично - нейронна мережа може бути, можливо, не обмеженою розмірами.
Нехай ігнорують уявлення, які вже пов’язані з тестуванням на первинність, такими як: нульовий перелік факторів n або існування свідка сумісності, наприклад у Міллера Рабіна. Давайте замість цього зосередимось на уявленнях у різних радикусах, або на уявленнях як векторах коефіцієнтів (можливо, багатоваріантних) многочленів. Або інші екзотичні, як їм належить.
Друге питання: для чого, якщо такі є, типи алгоритму ML вивчать це неможливо, незалежно від специфіки вектора представлення? Знову ж таки залишимо «заборонені тривіальністю» уявлення про приклади, наведені вище.
Вихід алгоритму машинного навчання - це один біт, 0 для простих, 1 для композитного.
Заголовок цього питання відображає мою оцінку того, що консенсус щодо питання 1 "невідомий", а консенсус щодо питання 2 - "ймовірно, більшість алгоритмів МС". Я запитую це, оскільки я не знаю більше цього, і сподіваюся, що хтось може вказати шлях.
Основною мотивацією цього питання є: чи існує «теоретично-теоретична» межа щодо структури безлічі праймів, які можна захопити в нейронну мережу певного розміру? Оскільки я не знаю цю термінологію, дозвольте мені кілька разів перефразувати цю думку і побачити, чи отримую наближення Монте-Карло до поняття: у чому полягає алгоритмічна складність набору простих чисел? Чи може той факт, що праймери є діофантиновими рекурсивно переліченими (і можуть задовольнити певне велике діофантинове рівняння ), використовуватися для захоплення тієї самої структури в нейронній мережі з описаними вище входами та виходами.