Інформатика - це алгоритми, а не (суворо) комп'ютери (та електроніка).
Отже, вивчення алгоритмів (навіть елементарної арифметики) може спричинити розуміння інформатики та програмування. Пам’ятайте, що навіть термін «алгоритм» є парафразою автора книги з арифметики ( аль-Хварізмі , близько 9-го століття. Пр . Н.е.).
Вивчення алгоритмів може здійснюватися за допомогою елементарних засобів, але повинно бути висвітлено, чому алгоритм працює, як він виник і як насправді можна продемонструвати, що він працює правильно.
Історію розвитку інформатики та алгоритмів та програмування не варто недооцінювати. Наприклад, калькулятор Беббіджа / Ада, машина Enigma, планкалкуль Конрада Зузе , ENIAC тощо.
Тоді можна запровадити програмування (та мови програмування) як спосіб формалізації алгоритмів. Це також можна зробити (значною мірою) за допомогою елементарних засобів.
Зауважимо , деякі дослідження показали, що програмування навчання «людям» має дві основні труднощі в розумінні (пов’язані з перевантаженням символів, наприклад, тестуванням назначення проти рівності та роботою машини ОЗУ).
- Контурні конструкції (наприклад, для, а т. Д.) Здаються складними
- Призначення проти тестування на рівність, здається, також важким.
Тож можна переконатися, що вони чітко зрозуміли і зрозуміли люди.
Крім того, якщо доступ до будь-якого комп’ютера (навіть калькулятор, який можна запрограмувати), це може бути використано для надання прикладів програм та практичного досвіду. В іншому можна використовувати модельований комп'ютер. Це можна зробити різними способами, наприклад, група людей може імітувати частини комп’ютера, а клас може розробити алгоритми для вирішення різних проблем для цього модельованого комп’ютера і побачити, як це відбувається. Це також можна розглядати як гру, будьте креативними та макіяжними.
Тоді деякі (абстрактні) моделі обчислень (наприклад, машини Тюрінга ) можуть бути введені і пов'язані з попереднім матеріалом про алгоритми та формалізацінн мовою (програмування).
Якщо хочеться представити електроніку фактичного комп’ютера, це можна зробити також у двох частинах.
Пам'ятайте, що навіть в університетах деякі курси електроніки та комп'ютерної архітектури є теоретичними (вони насправді не контактують з процесором або розробляються).
Таким чином, можуть бути введені деякі принципи роботи електроніки (і основної фізики), пов'язані з архітектурою комп'ютерів ( напівпровідники , твердотільні енергетичні зони, p-np ворота тощо).
Тоді можна скористатися попереднім матеріалом про програмування та алгоритми та запровадити (сучасні) методики розробки процесорів (та їх опису), які застосовуються в галузі ( логічні ворота , ланцюги Flip-Flops , FPGA , VHDL , CMOS тощо).
Це можна взяти далі до питань архітектури дизайну процесора, таких як паралелізм, конвеєрність, кеш-пам'ять, векторна адресація, мікропрограмування, DMA тощо.
Ну, добре, можливо, це може бути занадто багато, але додано, щоб відповідь була самодостатньою.