Відповіді:
Графічні процесори за своєю суттю масово паралельні - ви берете один логічний блок, повторюєте його тисячі разів і тепер він може обробляти більше пікселів. Процесори повинні мати справу з менш паралелізованими інструкціями, і це складніше. Тож на основі FLOP графічний процесор може бути дешевшим, ніж процесор.
Я здогадуюсь, що одна з причин полягає в тому, що GPU може дозволити бути сучасним. У x86 ми маємо справу з архітектурою CISC, яка потім була модифікована в гібрид RISC / CISC. Сучасний ПК підтримує 3 режими роботи одночасно (16, 32 та 64 біт) та підтримує такі інструкції, як додавання десятків (кому це все одно потрібно). З іншого боку, GPU має справу з відносно HL-доменною мовою (OpenGL / DirectX) - підтримується на стороні процесора (драйвери). Це означає, що кожне покоління може (і часто подібний до переходу від r100 / r200 до r300 / r400 або r300 / r400 до r600 / r700 [я не знаю, де r500]) було видалено велику частину внутрішніх даних.
А тепер уявіть, що ми можемо просто замінити X86-64 (який фактично є модернізованою 25-річною архітектурою) чимось на зразок Itanium, не переписуючи все. Або щось на кшталт ARM. Щось, що може бути оновлено до сучасних вимог (немає необхідності в складних повільних інструкціях, оскільки сьогодні ніхто їм не потрібен, як ніхто не пише в збірці - можливо, більш умовні інструкції, щоб не стрибати, як на ARM тощо).
Крім того - GPU має справу з набагато менш складними проблемами, а точніше - значно більш паралельними. Не потрібно робити такі дії, як підтримка 25-річних інструкцій, щоб хтось, можливо, ними користувався. Він може просто імітувати їх на процесорі / кількома інструкціями GPU. Не потрібно передбачати гілки, введені дивним чином, лише тому, що хтось думав, що це заощадить простір чи щось.
Як зауваження - останній раз, коли я будував комп’ютер, між процесором, графічною картою, материнською платою та іншим було близько 2: 2: 1: 1.
що ти маєш на увазі дешевше? Є дорогі графічні процесори, дорожчі за певний процесор. як ти їх порівнюєш?
Вони зазвичай створюються з процесом 90 нм, тоді як процесори сьогодні виробляються з 45 нм транзисторами. Насправді блок gpu вимагає тоді більше енергії, але одноразова ціна кінцевого споживача може бути нижчою - чим старша технологія, тим вона дешевша (за відносно близького часового діапазону 3-4 роки).
Спеціалізм проти генералізму
З іншого боку, вирішувати лише ви ... кожен працює по-різному для різних типів обробки, різних даних, різних моделей доступу тощо
Порівняйте архітектури процесора та GPU (зображення від Nvidia).
Багато АЛУ (арифметико-логічні одиниці) дають вам велику обчислювальну потужність (1000 тисяч ниток). Мінімальний контроль призводить до великих витрат на розгалуження та інших операцій, які не є "математичними" (і знижують цінник у магазині). Кеш дуже малий і керується здебільшого програмістом (апаратне забезпечення не повинно передбачати, що зберігати), тому це дешево. Більше того, GPU має власну "ОЗУ", тому він може працювати ефективніше, наприклад, 2 Гб даних (але все одно платить за них), ніж процесор, обмежений спілкуванням із зовнішніми підрозділами.