Я бачу такі можливі підходи до рішення:
- Важка теорія. Я знаю, що є література про життя на торі, але я її не читав багато.
- Груба сила вперед: для кожної можливої дошки перевіряйте її рахунок. Це в основному те, що роблять підходи Метью та Кіта, хоча Кіт зменшує кількість дощок для перевірки в 4 рази.
- Оптимізація: канонічне подання. Якщо ми можемо перевірити, чи є дошка в канонічному поданні набагато швидше, ніж потрібно для оцінки її балів, ми отримаємо прискорення коефіцієнта приблизно 8N ^ 2. (Існують також часткові підходи з меншими класами еквівалентності).
- Оптимізація: DP. Кешуйте рахунок за кожну дошку, щоб замість того, щоб пройти їх, поки вони не сходяться чи розходяться, ми просто ходимо, поки не знайдемо дошку, яку ми бачили раніше. У принципі це призведе до прискорення на коефіцієнт середнього показника / тривалості циклу (можливо, 20 або більше), але на практиці ми, ймовірно, сильно поміняємо місцями. Наприклад, для N = 6 нам потрібна ємність для 2 ^ 36 балів, що в байті за рахунок становить 16 ГБ, і нам потрібен випадковий доступ, тому ми не можемо очікувати хорошої локальності кешу.
- Об’єднайте два. Для N = 6 повне канонічне представлення дозволило б нам зменшити кеш DP до приблизно 60 мега-балів. Це перспективний підхід.
- Груба сила назад. Спочатку це здається дивним, але якщо припустити, що ми можемо легко знайти натюрморти і що ми можемо легко інвертувати
Next(board)
функцію, ми бачимо, що вона має певні переваги, хоча не стільки, скільки спочатку сподівався.
- Ми взагалі не турбуємося з розбіжними дошками. Не надто економія, бо вони досить рідкісні.
- Нам не потрібно зберігати партитури для всіх дощок, тому має бути менший тиск пам'яті, ніж підхід DP вперед.
- Робота назад насправді досить проста, змінюючи техніку, яку я бачив у літературі в контексті перерахунку натюрмортів. Він працює, обробляючи кожен стовпець як букву в алфавіті, а потім спостерігаючи, що послідовність з трьох літер визначає середню в наступному поколінні. Паралель із перерахуванням натюрмортів настільки близька, що я переробив їх разом у лише трохи незручний метод,
Prev2
.
- Може здатися, що ми можемо просто канонізувати натюрморти та отримати щось на кшталт прискорення 8N ^ 2 за дуже невеликі витрати. Однак емпірично ми все-таки отримуємо велике скорочення кількості розглянутих дощок, якщо ми можемо канонізувати на кожному кроці.
- Напрочуд висока частка дощок має оцінку 2 або 3, тому тиск пам'яті все ще є. Я вважав за потрібне канонізувати на льоту, а не будувати попереднє покоління, а потім канонізувати. Можливо, буде цікаво зменшити використання пам'яті, виконуючи пошук по-перше, а не за шириною, але це не переповнюючи стек і не виконуючи зайвих обчислень, вимагає підходу до перерахунку попередніх дощок.
Я не думаю, що мікрооптимізація дозволить мені наздогнати код Кіта, але заради інтересу я опублікую те, що маю. Це вирішує N = 5 приблизно за хвилину на машині 2 ГГц, використовуючи Mono 2.4 або .Net (без PLINQ) і приблизно за 20 секунд за допомогою PLINQ; N = 6 працює протягом багатьох годин.
using System;
using System.Collections.Generic;
using System.Linq;
namespace Sandbox {
class Codegolf9393 {
internal static void Main() {
new Codegolf9393(4).Solve();
}
private readonly int _Size;
private readonly uint _AlphabetSize;
private readonly uint[] _Transitions;
private readonly uint[][] _PrevData1;
private readonly uint[][] _PrevData2;
private readonly uint[,,] _CanonicalData;
private Codegolf9393(int size) {
if (size > 8) throw new NotImplementedException("We need to fit the bits in a ulong");
_Size = size;
_AlphabetSize = 1u << _Size;
_Transitions = new uint[_AlphabetSize * _AlphabetSize * _AlphabetSize];
_PrevData1 = new uint[_AlphabetSize * _AlphabetSize][];
_PrevData2 = new uint[_AlphabetSize * _AlphabetSize * _AlphabetSize][];
_CanonicalData = new uint[_Size, 2, _AlphabetSize];
InitTransitions();
}
private void InitTransitions() {
HashSet<uint>[] tmpPrev1 = new HashSet<uint>[_AlphabetSize * _AlphabetSize];
HashSet<uint>[] tmpPrev2 = new HashSet<uint>[_AlphabetSize * _AlphabetSize * _AlphabetSize];
for (int i = 0; i < tmpPrev1.Length; i++) tmpPrev1[i] = new HashSet<uint>();
for (int i = 0; i < tmpPrev2.Length; i++) tmpPrev2[i] = new HashSet<uint>();
for (uint i = 0; i < _AlphabetSize; i++) {
for (uint j = 0; j < _AlphabetSize; j++) {
uint prefix = Pack(i, j);
for (uint k = 0; k < _AlphabetSize; k++) {
// Build table for forwards checking
uint jprime = 0;
for (int l = 0; l < _Size; l++) {
uint count = GetBit(i, l-1) + GetBit(i, l) + GetBit(i, l+1) + GetBit(j, l-1) + GetBit(j, l+1) + GetBit(k, l-1) + GetBit(k, l) + GetBit(k, l+1);
uint alive = GetBit(j, l);
jprime = SetBit(jprime, l, (count == 3 || (alive + count == 3)) ? 1u : 0u);
}
_Transitions[Pack(prefix, k)] = jprime;
// Build tables for backwards possibilities
tmpPrev1[Pack(jprime, j)].Add(k);
tmpPrev2[Pack(jprime, i, j)].Add(k);
}
}
}
for (int i = 0; i < tmpPrev1.Length; i++) _PrevData1[i] = tmpPrev1[i].ToArray();
for (int i = 0; i < tmpPrev2.Length; i++) _PrevData2[i] = tmpPrev2[i].ToArray();
for (uint col = 0; col < _AlphabetSize; col++) {
_CanonicalData[0, 0, col] = col;
_CanonicalData[0, 1, col] = VFlip(col);
for (int rot = 1; rot < _Size; rot++) {
_CanonicalData[rot, 0, col] = VRotate(_CanonicalData[rot - 1, 0, col]);
_CanonicalData[rot, 1, col] = VRotate(_CanonicalData[rot - 1, 1, col]);
}
}
}
private ICollection<ulong> Prev2(bool stillLife, ulong next, ulong prev, int idx, ICollection<ulong> accum) {
if (stillLife) next = prev;
if (idx == 0) {
for (uint a = 0; a < _AlphabetSize; a++) Prev2(stillLife, next, SetColumn(0, idx, a), idx + 1, accum);
}
else if (idx < _Size) {
uint i = GetColumn(prev, idx - 2), j = GetColumn(prev, idx - 1);
uint jprime = GetColumn(next, idx - 1);
uint[] succ = idx == 1 ? _PrevData1[Pack(jprime, j)] : _PrevData2[Pack(jprime, i, j)];
foreach (uint b in succ) Prev2(stillLife, next, SetColumn(prev, idx, b), idx + 1, accum);
}
else {
// Final checks: does the loop round work?
uint a0 = GetColumn(prev, 0), a1 = GetColumn(prev, 1);
uint am = GetColumn(prev, _Size - 2), an = GetColumn(prev, _Size - 1);
if (_Transitions[Pack(am, an, a0)] == GetColumn(next, _Size - 1) &&
_Transitions[Pack(an, a0, a1)] == GetColumn(next, 0)) {
accum.Add(Canonicalise(prev));
}
}
return accum;
}
internal void Solve() {
DateTime start = DateTime.UtcNow;
ICollection<ulong> gen = Prev2(true, 0, 0, 0, new HashSet<ulong>());
for (int depth = 1; gen.Count > 0; depth++) {
Console.WriteLine("Length {0}: {1}", depth, gen.Count);
ICollection<ulong> nextGen;
#if NET_40
nextGen = new HashSet<ulong>(gen.AsParallel().SelectMany(board => Prev2(false, board, 0, 0, new HashSet<ulong>())));
#else
nextGen = new HashSet<ulong>();
foreach (ulong board in gen) Prev2(false, board, 0, 0, nextGen);
#endif
// We don't want the still lifes to persist or we'll loop for ever
if (depth == 1) {
foreach (ulong stilllife in gen) nextGen.Remove(stilllife);
}
gen = nextGen;
}
Console.WriteLine("Time taken: {0}", DateTime.UtcNow - start);
}
private ulong Canonicalise(ulong board)
{
// Find the minimum board under rotation and reflection using something akin to radix sort.
Isomorphism canonical = new Isomorphism(0, 1, 0, 1);
for (int xoff = 0; xoff < _Size; xoff++) {
for (int yoff = 0; yoff < _Size; yoff++) {
for (int xdir = -1; xdir <= 1; xdir += 2) {
for (int ydir = 0; ydir <= 1; ydir++) {
Isomorphism candidate = new Isomorphism(xoff, xdir, yoff, ydir);
for (int col = 0; col < _Size; col++) {
uint a = canonical.Column(this, board, col);
uint b = candidate.Column(this, board, col);
if (b < a) canonical = candidate;
if (a != b) break;
}
}
}
}
}
ulong canonicalValue = 0;
for (int i = 0; i < _Size; i++) canonicalValue = SetColumn(canonicalValue, i, canonical.Column(this, board, i));
return canonicalValue;
}
struct Isomorphism {
int xoff, xdir, yoff, ydir;
internal Isomorphism(int xoff, int xdir, int yoff, int ydir) {
this.xoff = xoff;
this.xdir = xdir;
this.yoff = yoff;
this.ydir = ydir;
}
internal uint Column(Codegolf9393 _this, ulong board, int col) {
uint basic = _this.GetColumn(board, xoff + col * xdir);
return _this._CanonicalData[yoff, ydir, basic];
}
}
private uint VRotate(uint col) {
return ((col << 1) | (col >> (_Size - 1))) & (_AlphabetSize - 1);
}
private uint VFlip(uint col) {
uint replacement = 0;
for (int row = 0; row < _Size; row++)
replacement = SetBit(replacement, row, GetBit(col, _Size - row - 1));
return replacement;
}
private uint GetBit(uint n, int bit) {
bit %= _Size;
if (bit < 0) bit += _Size;
return (n >> bit) & 1;
}
private uint SetBit(uint n, int bit, uint value) {
bit %= _Size;
if (bit < 0) bit += _Size;
uint mask = 1u << bit;
return (n & ~mask) | (value == 0 ? 0 : mask);
}
private uint Pack(uint a, uint b) { return (a << _Size) | b; }
private uint Pack(uint a, uint b, uint c) {
return (((a << _Size) | b) << _Size) | c;
}
private uint GetColumn(ulong n, int col) {
col %= _Size;
if (col < 0) col += _Size;
return (_AlphabetSize - 1) & (uint)(n >> (col * _Size));
}
private ulong SetColumn(ulong n, int col, uint value) {
col %= _Size;
if (col < 0) col += _Size;
ulong mask = (_AlphabetSize - 1) << (col * _Size);
return (n & ~mask) | (((ulong)value) << (col * _Size));
}
}
}