Не всі AI працюють на кореляції, Bayesian Belief Networks побудовані на основі ймовірності того, що A викликає B.
Я працюю над системою оцінювання результативності студентів з питань, виходячи з їх минулих виступів.
Я не думаю, що вам для цього не потрібна причина. Минуле виконання не викликає поточного виконання. Відповідь на раннє запитання не викликає відповіді на більш пізнє запитання.
Але з точки зору просто побудови системи для вибору питань, які, ймовірно, будуть відповідного рівня складності - чи має це розрізнення важливе значення?
Ні, не для вашого прикладу. Я думаю, що кореляція (або навіть проста екстраполяція) дуже добре вирішить вашу проблему. Призначте оцінку складності кожному із запитань, а потім подайте студентам запитання на дедалі складніших рівнях (саме так працює більшість іспитів), і тоді, коли студент почне їх неправильно, ви зможете повернути цю складність. Це алгоритм зворотного зв'язку, подібний до мінімізації помилок, здійсненого на нейроні в багатошаровому перцептроні. Нетривіальний фрагмент вхідних просторів, як це, вирішує, яке складне питання!
Кращим прикладом причинно-наслідкової хвороби у ШІ буде:
Моя машина сповільнюється. Мій прискорювач лежить на підлозі. Шуму не так багато. На приладовій панелі є світло. Яка ймовірність того, що у мене закінчилося пальне?
У цьому випадку нестача пального призвела до того, що машина сповільнилася. Це саме та проблема, яку вирішує Байєсівська мережа віросповідання.