Чому оперативна пам'ять не поставлена ​​на мікросхемі процесора?


55

Сучасні процесори дуже швидкі в порівнянні з усіма зовнішніми речами, включаючи пам'ять (RAM).

Це зрозуміло, оскільки тактова частота процесора досягла точки, коли потрібно декілька тактових кліщів для електричного сигналу, щоб просто бігти з процесора через шину до мікросхем оперативної пам'яті і назад.

Це також ускладнює життя на багатьох рівнях: багаторівневі ієрархії кешу побудовані для доставки даних ближче до процесора, що в свою чергу вимагає складної логіки синхронізації в мікросхемі. Програми повинні бути написані зручним для кешу способом, щоб уникнути циклів очікування під час отримання даних.

Багатьох цих проблем можна було б уникнути, якби значна кількість оперативної пам’яті була розташована безпосередньо на чіпі CPU. Це не має ексклюзивного розташування: можливо, покладіть на мікросхему 1-4 ГБ, залежно від його класу, а додаткова пам'ять встановлена ​​окремо.

Я впевнений, що є вагомі причини, по яких Intel, AMD тощо не роблять цього. Які ці причини? Хіба що на мікросхемі немає місця, щоб зекономити?


29
Кеш - оперативна пам'ять. Простір та шпильки на штампі - це надбавка.
мідь.ха

2
@ copper.hat Кеш - оперативна пам’ять, але розмір кешу - це невелика частка встановленої оперативної пам’яті (зазвичай ми говоримо про діапазони MBytes vs Gbytes). Цікаво, чому б не поставити 1 Гб в чіп процесора.
Менший їжак

5
Як правило, він оптимізований для деякої суміші інструкцій / потоків даних. Крім того, не всі дані з / з оперативної пам'яті передаються через процесор.
мідь.ха

1
Чим простіше штамп, тим дешевше. Це також означає, що ви можете використовувати різні розміри процесу та методи процесу.
подорож Geek

@LesserHedgehog Існує обмеження, якою може бути загальна частота показів кешу, тому додавання більше кешу насправді нічого не допомагає. Також багато процесорів насправді вбудовують DRAM зараз, особливо в мобільний / вбудований простір (наприклад, багато ARC на основі SoC).
пухнастий

Відповіді:


79

Haswell компанії Intel (або принаймні ті продукти, які містять графічний процесор Iris Pro 5200) та POWER7 та POWER8 IBM, включають вбудовану DRAM, "eDRAM".

Одне важливе питання, яке призвело до того, що eDRAM до недавнього часу не було поширеним, - це те, що процес виготовлення DRAM не є суттєво сумісним з логічними процесами, тому необхідно додати додаткові кроки (які збільшують вартість та зменшують вихід), коли потрібна eDRAM. Таким чином, для того, щоб компенсувати цей економічний недолік, повинна бути вагома причина, щоб її включити. Альтернативно, DRAM може бути розміщений на окремому штампі, який виготовляється незалежно від, але потім інтегрується в той же пакет, що і CPU. Це забезпечує більшу частину переваг місцевості без труднощів виготовлення двох справді інтегрованих способів.

Інша проблема полягає в тому, що DRAM не схожий на SRAM, оскільки він не зберігає його вміст на невизначений час під час подачі живлення, а читання також знищує збережені дані, які потрібно записати після цього. Отже, його потрібно періодично оновлювати і після кожного прочитаного. І тому, що ячейка DRAM заснована на конденсаторі, заряджаючи або розряджаючи її достатньо, щоб витік не пошкодив її значення до наступного оновлення потребує певної обмеженої кількості часу. Цей час зарядки не потрібен для SRAM, який є лише засувкою; отже, його можна тактирувати з тією ж швидкістю, що і процесор, тоді як DRAM обмежений приблизно 1 ГГц, зберігаючи розумне енергоспоживання. Це призводить до того, що DRAM має більш високу притаманну затримку, ніж SRAM, що робить її не варто використовувати для всіх, крім самих великих кешів, де зменшена швидкість пропуску окупиться.

Крім того, що стосується затримки, велика частина труднощів полягає в тому, що сигнали фізичної відстані повинні пройти. Світло може подорожувати лише 10 см за тактовий час процесора 3 ГГц. Звичайно, сигнали не рухаються прямими лініями через матрицю і не поширюються при чомусь близькому до швидкості світла через необхідність буферизації та вентиляції, що спричиняє затримку розповсюдження. Отже, максимальна відстань, яку пам'ять може бути віддалена від центрального процесора, щоб підтримувати 1 тактовий цикл затримки, становить не більше кількох сантиметрів, обмежуючи об'єм пам'яті, який може бути розміщений у доступній області. Процесор Nehalem від Intel фактично знизив ємність кешу L2 порівняно з Penryn частково для поліпшення його затримки, що призвело до підвищення продуктивності.

Слід також зазначити, що частота показів кешу дуже велика для більшості робочих навантажень: набагато вище 90% майже у всіх практичних випадках, а не рідко навіть вище 99%. Таким чином, користь від включення більших спогадів на смерть по суті обмежується зменшенням впливу цих кількох відсотків промаху. Процесори, призначені для ринку корпоративних серверів (наприклад, POWER), зазвичай мають величезні кеші і можуть вигідно включати eDRAM, оскільки це корисно для розміщення великих робочих наборів багатьох навантажень підприємства. Haswell має підтримку графічного процесора, оскільки текстури великі і їх неможливо розмістити в кеші. Це випадки використання для eDRAM сьогодні, а не типові робочі навантаження або HPC, які дуже добре обслуговуються типовими ієрархіями кешу.

Щоб вирішити деякі проблеми, порушені в коментарях:

Ці кеші eDRAM не можна використовувати замість основної пам'яті, оскільки вони розроблені як кеші жертв L4. Це означає, що вони є мінливими та ефективно адресованими вмістом, тому дані, що зберігаються в них, не розглядаються як такі, що зберігаються в якомусь конкретному місці, і можуть бути викинуті в будь-який час. Ці властивості важко узгодити з вимогою оперативної пам'яті бути прямим відображенням та стійким, але їх зміна зробить кеші марними за призначенням. Звичайно, можна вбудувати пам'ять більш звичайної конструкції, як це робиться в мікроконтролерах, але це не виправдано для систем з великою пам’яттю, оскільки низька затримка не настільки вигідна в основній пам’яті, як в кеш-пам'яті, тому розширення або додавання кеша є більш вагомою пропозицією.

Що стосується можливості дуже великих кешів з ємністю на порядок гігабайт, кеш потрібно лише розміром робочого набору для програми. Програми HPC можуть мати справу з терабайтними наборами даних, але вони мають гарну часову та просторову локалізацію, тому їх робочі набори зазвичай не дуже великі. Додатки з великими робочими наборами - це, наприклад, бази даних та програмне забезпечення ERP, але існує лише обмежений ринок процесорів, оптимізованих для такого навантаження. Якщо програмне забезпечення справді цього не потребує, додавання більше кешу забезпечує дуже швидко зменшення віддачі. Останнім часом ми бачимо, що процесори отримують інструкції з попереднього вибору, тому кеші можна використовувати більш ефективно: можна використовувати ці інструкції, щоб уникнути помилок, спричинених непередбачуваністю шаблонів доступу до пам'яті, а не абсолютним розміром робочого набору,

* Поліпшення затримки відбулося не лише через менший фізичний розмір кешу, а й тому, що асоціативність була знижена. Була суттєва зміна всієї ієрархії кеш-пам'яті в Негалемі з кількох різних причин, не всі з яких були зосереджені на покращенні продуктивності. Отже, хоча цього достатньо для прикладу, це не повний рахунок.


1
Добре пояснено, @Oleksandr R. Коротше кажучи, це здається, що між процесором та DRAM є щось на кшталт "невідповідності імпедансу", що ускладнює зв'язок цих двох.
Менший Їжак

3
І звичайно, SRAM все ще досить величезний - навіть крихітні кеші (порівняно з оперативною пам’яттю) займають приблизно половину площі плашки на сучасних процесорах (ну, крім процесорів із інтегрованими графічними процесорами: D).
Луань

2
Цікаво, чи є спосіб запуститись без основної пам’яті. 128 Мб має бути достатньо, щоб запустити зменшений дистрибутив Linux (або стару версію Windows).
користувач253751

Це називається "GPU-on-die", а не "GPU-on-pack".
AStopher

4
@cybermonkey: Інструкції дістаються з кешу L1, а не основної пам'яті. Було б дивовижно дістати їх з основної пам'яті - час циклу 60 нс або близько того, що обмежує ваш процесор до 16 МГц для одноядерної конструкції.
MSalters

17

Основні причини, коли більша пам’ять (ГБ пам'яті DRAM) не входить до процесорного відмирання, в першу чергу полягає в вартості. Простір центрального процесора значно дорожче через виробничий процес, необхідний для створення дуже маленьких функцій. Можливо, також неможливо виготовити двох на одній матриці, хоча я не знаю достатньо деталей, щоб дати тут остаточну відповідь.

Давайте оцінимо можливість розміщення великої кількості DRAM безпосередньо на процесорній матриці.

Щоб порівняти масштаб, сучасна штампова частина процесора може становити ~ 180 мм (приблизно розмір відмирає Intel Haswell). У мене немає точних цифр для розмірів штампів процесора DRAM, але припустимо, що 1 ГБ традиційної DRAM займає 140 мм (розраховано на розміри графічної DRAM). До наближення першого порядку ви приблизно вдвічі збільшили розмір процесора, що означає принаймні подвоєння вартості центрального процесора, і, швидше за все, тільки за 1 Гб DRAM на той же штамп ... Я не плачу кілька сотень доларів лише отримати 1 Гб DRAM, і я не думаю, що хтось цього зробив би.222

Однак ідея закріплення пам'яті ближче до процесора не є повністю втраченою причиною. Це, ймовірно, там, де пам’ять рухатиметься в майбутньому, оскільки факт полягає в тому, що швидкість світла є обмеженою, і спілкуватися так швидко можна лише на певній відстані.

Реалістичні методи переміщення пам'яті ближче до процесора (зауважте, що вони також мають компроміси з традиційними методами):

  1. Складіть їх поверх самого процесора. Це вже зроблено на Raspberry Pi і є частиною стандарту пам'яті широкого вводу / виводу. Пам'ять як і раніше є окремим штампом, виготовленим окремим процесом. Однак у цьому є проблема, що будь-яке тепло, що розсіюється в процесорі, повинно проходити через пам'ять, перш ніж потрапляти в тепловідвід. Це означає, що він не працює для процесорів високої потужності, і чому основні програми для цієї технології є в мобільних процесорах / інших вбудованих додатках, де ваш процесор не споживає багато десятків і сотень ватт.

  2. Наклейте їх дуже близько на нижчу вартість підкладки. Ось як призначений для роботи HBM, з дуже великою шиною, виготовленою на меншій вартості "інтерпозатора", і це напрямок пам'яті GPU високого класу, оскільки пропускна здатність значно більша. Мікросхеми пам'яті та інтерпозер все ще виготовляються на різних штампах від фактичного процесора.


5
Я б очікував, що врожай впаде, коли ви спробуєте набити більше мільярдів транзисторів на одній великій штампі - ймовірність несправності чи несправності зростає з кожним додатковим пристроєм. Якщо ви розділите систему на кілька менших шматочків, шанс появи несправності на будь-якому шматку значно знизиться, а вартість викидання цього несправного шматка також нижча. Я думаю, що дуже велику штампу також було б набагато важче виготовити, всі інші були б рівними.
Джон У

4
@JohnU Важко сказати, як буде змінюватися ціна, оскільки фактична ставка дефекту є комерційною таємницею. Графічний процесор вже використовує штампи в діапазоні ~ 440 мм продаючи приблизно за $ 550, тому масштабна ціна наближення до першого порядку з розміром штампу не здається занадто вигідною. Плюс пристрої з дефектами все ще можуть продаватися як пристрої нижнього кінця з певними функціями, вимкненими. Це звичайна практика багатьох компаній. 2
helloworld922

@JohnU - розміщення великої кількості повторних модулів на матриці має перевагу в тому, що коли виникає дефект, ви можете просто відключити модуль, в якому він виникає, і звільнити матрицю як відповідну стандарту нижчих витрат (це часто трапляється з DRAM, повертаючись прямо до 80-х, коли багато машин, що мали 32 КБ модулі, фактично використовували 64K мікросхеми з вимкненою несправною секцією). Це насправді може означати, що врожайність зростає при інтеграції DRAM з процесорами ...
Jules

7

Є кілька причин, через які додавання великої кількості DRAM до процесора може бути нездійсненним.

  1. Процес і файли можуть не бути налаштовані для DRAM. DRAM вимагає спеціальних елементів схеми, які роблять додаткові кроки виготовлення. Це збільшує вартість виготовлення.

  2. Вся ця пам'ять повинна бути протестована. Тестування пам'яті збільшує ваш час тестування. Це ще одне збільшення витрат.

  3. Збільшення штампу - це само збільшення витрат, оскільки це означає менше вмирання за пластину. Це також впливає на врожайність - один дефект виймає більшу частку вашої вафлі. Для крайнього прикладу цього подивіться вартість повнокадрових (35 мм) датчиків зображення у камерах.

  4. Розробка процесу, який може працювати з особливими видами пам’яті, вимагає більше часу, грошей та роботи, і підвищується ризик виходу з ладу. Будь-яка проблема з DRAM затримає випуск процесора. Настільні процесори знаходяться на передній частині виробництва напівпровідників, тому затримка може бути величезним конкурентним недоліком. (Див. AMD проти Intel за останні кілька років.)

  5. DRAM вимагає аналогового зондування для показань, а також періодичного оновлення. Я не є експертом з DRAM, але я сумніваюся, що це коли-небудь може бути таким же швидким, як процесор високого класу, незалежно від того, чи це він чип чи мікросхема. Таким чином, ви, ймовірно, все ще будете застрягли в кешуванні SRAM

  6. Навіть якщо ви зможете подолати перераховані вище проблеми та набити пару гігабайт DRAM на процесор, це все одно не буде достатньо для запуску настільного ПК, ноутбука чи сервера, тож у будь-якому випадку вам доведеться мати пам'ять без чіпа. .


1
Більшість кешів реалізовані за допомогою ECC, а деякі останні процесори Intel включають чіпкілл та блокування надмірності кешу. Це зменшує вимоги до випробувань та суттєво покращує врожайність для більших штампів. На відміну від датчика зображення, немає можливості виправлення помилок, оскільки інформація апріорі не відома , і ми також не можемо вирішити, коли блок пікселів не працює належним чином, просто ігнорувати її та використовувати запасний в своє місце.
Олександр Р.

Правда, простіше отримати більшу врожайність зі спогадами. Як я вже казав, це був надзвичайний приклад.
Адам Хаун

3

Окрім інших відповідей, про таку систему можна сказати ще багато. Переміщення пам’яті до основного штампу включало б безліч інших технічних проблем. Вам доведеться перенаправляти автобуси, вбудовувати контролер DMA в основний процесор, реструктурувати шину IRQ і визначати, як позбутися всього того зайвого тепла, яке ви виділятимете в зосередженому місці. Це означає, що виробник материнської плати також повинен буде залучатися для підтримки такої суттєвої зміни. Хоча системи низького класу, ймовірно, виграють від такої зміни, але системи високого класу, ймовірно, потребують значного охолодження. Я сумніваюся, що середній ноутбук міг би обробляти такий чіп, наприклад.

Такий чіп був би значно дорожчим, хоча основна материнська плата впаде в ціні (хоча, мабуть, не помітно). Якщо ви бачили пакети для контролера DMA, а також пакети оперативної пам’яті, вам буде важко повірити, що вся ця логіка може бути натиснута на одну матрицю, яка не буде значно більшою. Також пам’ятайте, що центральні процесори вирізані з великих вафель певного розміру. Це означає, що виробник також матиме набагато менше процесорів на одну пластину, що також збільшить загальну вартість.

Майте на увазі, що ми не говоримо про споживання енергії у всій системі, що зменшиться, а скоріше, що в одній області буде ще більше концентрації потужності (і, отже, тепла), що, ймовірно, збільшить ймовірність невдача.

Нарешті, тут є ще один недолік - це можливість надавати спеціалізовані системи. Зараз виробники можуть вибирати системи з однаковими процесорами, але різним об'ємом пам'яті, або різними процесорами, але однаковим обсягом пам'яті, виходячи з уподобань замовника. Щоб запропонувати безліч різних конфігурацій, їм доведеться будувати різні штампи, кожен на різній складальній лінії.

AMD активно використовує технологію, яка фактично працює таким чином, коли кожна частина процесорної штампу є дискретним логічним блоком, який можна замінити для різних конфігурацій. Надалі, якщо така конструкція є життєздатною, ми можемо дуже добре бачити процесори, які пропонують вбудовану пам'ять як чіпке оновлення модуля, можливо, замінюючи трохи процесорної потужності у відповідь або інші зміни. Наприклад, одного дня у нас може бути вибір між 256 ядрами без вбудованої пам'яті, або 128 ядрами з вбудованою пам'яттю або, можливо, навіть іншими конфігураціями, такими як GPU, частина процесора, частина оперативної пам'яті.


Основна проблема з цією відповіддю полягає в тому, що конструкції SoC для смартфонів насправді містять оперативну пам’ять. Вони не набагато дорожчі, адже вони дешевші.
MSalters

@MSalters За винятком того, що вони не інтегровані в один і той же штамб. Плашки пам'яті є окремими, перевірені та підтверджені, що вони працюють правильно, і просто упаковані разом з мікропроцесорною штампом.
Зубна щітка

2

Майже все вищезазначене + ще одна додаткова проблема: тепло.

Осередки DRAM по суті є герметичними конденсаторами. А діелектриком тут є сам шар SiO2. Зі збільшенням температури струми витоку пропорційно збільшуються. Вони розряджають осередки DRAM набагато швидше, що вимагає набагато швидших частот оновлення, що збільшить складність, потрібний струм і, звичайно, додасть трохи більше тепла.


2

На додаток до вже наданих відповідей є ще один додатковий аспект: Відходи внаслідок виробничих несправностей:

Скажімо, 1/100 всіх процесорів певної виробленої моделі є несправними (насправді, менше, звичайно; 1/100 простіше обчислити), а 1/100 всіх вироблених ОЗУ є несправними.

Якщо обидва компоненти будуть об'єднані на одному чіпі, то 1/100 усіх мікросхем має несправний процесор, а 1/100 всіх мікросхем має несправну оперативну пам'ять.

Це означатиме:

  • 1 з 10000 мікросхем матиме як несправну оперативну пам'ять, так і процесор
  • 99 мікросхем мали б несправну оперативну пам'ять
  • 99 чіпів мали б несправний процесор
  • Загалом 199 з 10000 вироблених деталей були б відходами

Виробляючи окремі мікросхеми, обчислення здійснюється наступним чином:

  • 50 з 5000 ОЗУ несправні
  • 50 з 5000 процесорів несправні
  • 100 з 10000 вироблених деталей були б відходами

Зауважте, що один ГБ оперативної пам’яті, як правило, виготовляється у формі банку, що складається з восьми чіпів, тому вам не доведеться поєднувати два, а дев'ять компонентів в одну мікросхему, якщо ви хочете поставити оперативну пам’ять та процесор на одну і ту ж мікросхему. Це призвело б до близько 865 дефектних частин 10000, виготовлених у простому прикладі вище.

Саме у цій процесорі виникли процесори "IBM Cell". Консоль "Playstation" використовувала мікросхеми, які були частково несправними; ПЗ Playstation було написано таким чином, що браковані ядра та SRAM не використовувалися.


1
Компанія AMD протягом певного часу пропонувала 3-ядерні процесори з тієї ж причини. Я думаю, що на практиці деталі зазвичай перевіряються на рівні штампу перед упаковкою, тому ваше занепокоєння найбільше стосується монолітних комбінацій процесора та пам'яті.
Олександр Р.

Дарпа виграв приз за 50-кратну ефективність енергії, подолавши стіну пам'яті за допомогою 3dSoC, що є фантастичним краєм щодо інженерів Intel та Qualcom, за винятком дарпи - дарпа. monolithic3d.com/blog/… SoC (система на мікросхемі) найкраща для паралельних процесорів, це означає, що існує 1000ds груп, а не 2/16.
спільно зрозумілий

1

Насправді є два типи оперативної пам’яті. Вони являють собою статичну ОЗУ та Динамічну ОЗУ. Статична пам’ять дуже швидка, але витрачається дорожче. Тим часом динамічна ОЗУ повільна порівняно зі статичною ОЗП, але коштує дешевіше порівняно зі статичною ОЗП.

Кеш-пам'ять потрапляє в статичну ОЗП. ви можете бачити, що вони розміщені в КБ або МБ. Вони швидкі. Але висока вартість.


Не зовсім так, так, вони швидкі, але це в першу чергу через те, що дані про відстань повинні пройти набагато менше, ніж у DRAM.
AStopher

3
Насправді осередок SRAM швидший, тому що він простіший. Це цифровий двобічний контур. Якщо ви випадково встановили його на аналогове значення 0,8, він би зафіксував себе, перемістившись у стабільне положення 1,0. DRAM не має таких стабільних станів. Він не відходить від проміжних станів. Гірше, що він рухається в бік таких станів, саме тому вам потрібна додаткова корекційна схема "оновлення".
MSalters

@MSalters: Осередок SRAM НЕ простіший, ніж комірка DRAM. Ви маєте рацію , що це набагато більш стабільним, що робить з допомогою простіше (як з точки зору підтримки схеми і тимчасові діаграми). Але комірки SRAM мають приблизно в 6 разів більше схеми на біт, ніж DRAM.
Бен Войгт

1
@BenVoigt: У підрахунку транзисторів так - 6T проти 1T. Але DRAM має конденсатор, який є досить дивним компонентом. SRAM - це просто з'єднані транзистори.
MSalters

Конденсатор в DRAM, виявляється, також реалізований як транзистор
Бен Войгт

1

Окрім інших згаданих причин, у багатьох системах є більше одного ядра процесора. У моменти, коли інформація, що зберігається в основній DRAM, відповідає всім кешованим копіям, всі процесори, які не мають кешованої інформації, матимуть рівний доступ до неї. Деякі архітектури розроблені на основі припущення, що кожне ядро ​​CPU буде "володіти" діапазоном адресного простору, і навіть якщо процесор здатний отримати доступ до пам'яті, що належить іншим процесорам, такий доступ буде набагато повільніше, ніж доступ до власної пам'яті , але x86 взагалі не реалізується таким чином.

Якщо система була розроблена на основі припущення, що ядра процесора володіють певними діапазонами адрес, і код повинен намагатися мінімізувати використання адресних діапазонів інших процесорів, то було б доцільно, щоб кожен код процесора включав велику кількість пам'яті на мікросхемі. Така конструкція може скоротити час, необхідний для ядра процесора для доступу до власної пам'яті, але, швидше за все, збільшить час, необхідний для доступу до пам'яті іншого процесора. Якщо система не буде розроблена навколо такого припущення, однак, ймовірно, що дані будуть поширюватися між процесорами, не зважаючи на те, кому це потрібно. Навіть якщо додатковий час, необхідний для доступу до даних з іншого процесора (проти зовнішньої системи пам'яті), був удвічі більшим, ніж час, збережений на внутрішньому доступі,

Якби хтось розробляв систему з нуля, щоб вона відповідала сучасним технологіям, нерівномірна архітектура пам'яті могла б забезпечити більше "ударів за долар", ніж та, яка повинна дозволяти всім процесорам ефективно отримувати доступ до всієї пам'яті. Враховуючи сучасні розробки програмного забезпечення, однак, наявність зовнішньої системи пам’яті, якою поділяються між процесорами, може бути більш ефективною, ніж намагання забезпечити об'ємне зберігання даних у самих процесорах.


2
Неоднакові архітектури пам'яті вже використовуються (і навіть поширені) сьогодні. Для процесора з інтегрованими контролерами пам'яті, що використовуються в багатопроцесорній системі, дані, що зберігаються у фізичній пам'яті іншого процесора, більш віддалені і доступні з більшою затримкою, ніж дані в локально приєднаній оперативній пам'яті. На практиці в цих системах відбувається те, що процесори оснащені додатковими рівнями кешу, а трафік когерентності частково обробляється сполучною тканиною. POWER7 та POWER8 такого типу.
Олександр Р.

1

Хоча всі попередні відповіді правильні, вказуючи, чому так складно додати більше пам'яті до процесора, правда також, що в сучасних процесорах є досить багато пам’яті.

У операціях в режимі реального часу, коли важливі детерміновані затримки, не чутно використовувати кеш-пам'ять на мікросхемі як адресну пам'ять, для коду та / або даних. Перевагою є швидкий і постійний час доступу, а недоліком є ​​те, що вбудована пам'ять досить обмежена.


1

Проблем, які ви описуєте в оригінальному запитанні, можна було б уникнути, лише якщо ВСЕ пам'яті в апараті були включені в процесор. Будь-яка додаткова пам'ять, що додається до машини через слоти на головній платі, зазнає тих самих затримок, які ви описуєте, і вимагатиме пристроїв керування та логічного керування між процесором / оперативною пам’яттю та бортовою оперативною пам’яттю.

Оперативна пам’ять є дешевою і зазвичай розширюється користувачами один або навіть два рази між оновленням процесора.

Також пам’ятайте, що типовий дзвінок "Витягнути", навіть якщо оперативна пам'ять працює з тактовою частотою процесора, призведе до кількості непрацюючих тиків на процесорі.

Традиційною організацією пам’яті на машині є піраміда з регістрами процесора вгорі, потім кеш, потім оперативна пам’ять, потім диск. Зазвичай машини, які працюють добре, поєднують пристойну тактову частоту, розумну кількість кешу, хорошу кількість оперативної пам’яті та високошвидкісний жорсткий диск (або масив). В останні роки продуктивність дисків, як правило, забезпечує найкраще підвищення продуктивності на більшості дисків ПК та високих RPM, диски з кешем і твердотілі диски дають хороший приріст продуктивності.

Так, машина з усією своєю оперативною пам’яттю на мікросхемі спрацювала б добре в сучасних програмах, але машина з деякою частиною своєї оперативної пам’яті на мікросхемі, що працює в стандартній операційній системі, швидше за все, не забезпечить підвищення продуктивності, як ви можете подумати.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.