Це питання схоже на більш загальне питання про те, яка правильна теоретична модель комп'ютера для проектування алгоритму та структури даних.
Тут я запитую конкретно про сучасні високопродуктивні комп’ютери (наприклад, ті, що перераховані як Top 500 ) або навіть про майбутні суперкомп'ютери.
Зважаючи на те, що ці комп'ютери, як правило, працюють на величезних наборах даних (схоже, що деякі люди використовують такі машини головним чином через те, що вони мають величезну комбіновану основну пам'ять) аспекти моделі вводу / виводу (представлені Aggarwal і Vitter у 1988 році ) та її паралельної версії PEM ( Арге, Гудріч, Нельсон і Сітчінава у 2008 р. ) має бути присутнім. З іншого боку, має бути щось щодо комунікації, зокрема покарання надмалих пакетів до всіх інших обчислювальних вузлів.
Як ви можете собі уявити, я не боюся, що мені не вистачає ідей при створенні нової моделі, але я трохи переживаю, що можу не помітити попередніх спроб зробити це, зокрема, тому що я маю враження, що роки 1980- 1995 або близько того спостерігалося багато таких спроб моделювання (як BSP або мостикові моделі), які, здається, не знайшли широкого застосування.
Які моделі слід детальніше розглянути?