Це фактично цікаве питання.
У книзі "Про інтелект", яку написали Джефф Хокінс та Сандра Блекслі, існує цілком реальна ідея про те, "звідки може виникнути цікавість".
Він заснований на таких твердженнях:
Розум створює власну модель світу, в якій він існує.
Він робить прогнози про все постійно (насправді Джефф Хокінс заявляє, що це головна характеристика інтелекту).
Коли передбачення чогось не супроводжується відповідною поведінкою світу, тоді ця річ стає дуже цікавою для розуму (модель неправильна і її слід виправити) і потребує більшої уваги.
Наприклад, коли ви дивитесь на ліве людське око, ваш мозок передбачає, що це людське обличчя, а праворуч має бути друге око. Ви дивитесь праворуч і бачите .. ніс! Ось так сюрприз! Зараз це забирає всю вашу увагу, і у вас є ця мотивація робити більше спостережень щодо такої дивної речі, яка не вписується у вашу модель.
Тому я б сказав, що AI може зробити щось певне за своєю моделлю або поводитись випадковим чином, поки прогнози, які він робить про світ, вірні. Але після того, як якийсь прогноз порушений, AI отримує мотивацію робити виправлення помилок у своїй моделі.
У простому випадку машина запускається в повній випадковості, роблячи все, що тільки може, з її результатом. Хоча у нього немає моделі або випадкової моделі, коли вона виявляє якийсь порядок або повторювані шаблони, він стає "зацікавленим" і додає його до моделі. Через деякий час модель стає більш досконалою, роблячи складніші прогнози та виявляючи помилки вищого рівня в моделі. Повільно стає зрозуміти, що робити, щоб спостерігати щось цікаве, а не просто згадувати все.