Чому GPU дешевші від процесорів?


Відповіді:


13

Графічні процесори за своєю суттю масово паралельні - ви берете один логічний блок, повторюєте його тисячі разів і тепер він може обробляти більше пікселів. Процесори повинні мати справу з менш паралелізованими інструкціями, і це складніше. Тож на основі FLOP графічний процесор може бути дешевшим, ніж процесор.


Чому нас цікавлять операції FLOATING POINT, а не лише регулярні (отже, чому FLOPS є стандартом)?
Темний тамплієр

@Dark Templar Нас цікавить, оскільки деякі програми дуже специфічні для операцій Floaing Point, таких як 3D-ігри та наукові програми.
Андрій

4

Я здогадуюсь, що одна з причин полягає в тому, що GPU може дозволити бути сучасним. У x86 ми маємо справу з архітектурою CISC, яка потім була модифікована в гібрид RISC / CISC. Сучасний ПК підтримує 3 режими роботи одночасно (16, 32 та 64 біт) та підтримує такі інструкції, як додавання десятків (кому це все одно потрібно). З іншого боку, GPU має справу з відносно HL-доменною мовою (OpenGL / DirectX) - підтримується на стороні процесора (драйвери). Це означає, що кожне покоління може (і часто подібний до переходу від r100 / r200 до r300 / r400 або r300 / r400 до r600 / r700 [я не знаю, де r500]) було видалено велику частину внутрішніх даних.

А тепер уявіть, що ми можемо просто замінити X86-64 (який фактично є модернізованою 25-річною архітектурою) чимось на зразок Itanium, не переписуючи все. Або щось на кшталт ARM. Щось, що може бути оновлено до сучасних вимог (немає необхідності в складних повільних інструкціях, оскільки сьогодні ніхто їм не потрібен, як ніхто не пише в збірці - можливо, більш умовні інструкції, щоб не стрибати, як на ARM тощо).

Крім того - GPU має справу з набагато менш складними проблемами, а точніше - значно більш паралельними. Не потрібно робити такі дії, як підтримка 25-річних інструкцій, щоб хтось, можливо, ними користувався. Він може просто імітувати їх на процесорі / кількома інструкціями GPU. Не потрібно передбачати гілки, введені дивним чином, лише тому, що хтось думав, що це заощадить простір чи щось.

Як зауваження - останній раз, коли я будував комп’ютер, між процесором, графічною картою, материнською платою та іншим було близько 2: 2: 1: 1.


Чому RISC кращий за CISC ??
Темний тамплієр

Темний тамплієр: CISC були спрямовані більше на розробку в зборах - одна інструкція може зробити багато, ви можете працювати безпосередньо над пам’яттю і т.д. . З іншого боку компілятори створили код, який зробив кілька простих інструкцій. Тому вважалося, що варто мати кілька інструкцій, які виконуються швидше, ніж більша сума, яка робить більше. Це більше, як ми використовуємо процесори, які успадковані в архітектурі (торгуємо між довжиною циклу та кількістю інструкцій).
Maciej Piechotka

Зверніть увагу, але це не так просто - якщо у вас є два процесори з тим же ISA, у вас можуть бути 2 програми - A і B - і A працює швидше на P1 і B швидше на P2. Коли у вас є 2 різних ISA, у вас є кілька способів перетворення програми на збірку, а значить, порівняння складніше.
Maciej Piechotka

3

що ти маєш на увазі дешевше? Є дорогі графічні процесори, дорожчі за певний процесор. як ти їх порівнюєш?


Чи є приклади, які підтверджують це твердження?
Темний тамплієр

@Dark Templar приклади чого? що є графічні процесори, які дорожчі певних процесорів? Невже це сумнівно?
Андрій

1

Вони зазвичай створюються з процесом 90 нм, тоді як процесори сьогодні виробляються з 45 нм транзисторами. Насправді блок gpu вимагає тоді більше енергії, але одноразова ціна кінцевого споживача може бути нижчою - чим старша технологія, тим вона дешевша (за відносно близького часового діапазону 3-4 роки).


1

Спеціалізм проти генералізму

З іншого боку, вирішувати лише ви ... кожен працює по-різному для різних типів обробки, різних даних, різних моделей доступу тощо


Привіт гбн. Дякую, але чи можете ви надати конкретний, конкретний приклад того, що ви говорите? :)
Темний тамплієр

@DarkTemplar перегляньте наступні статті: en.bitcoin.it/wiki/Why_a_GPU_mines_faster_than_a_CPU deskeng.com/articles/aaayet.htm
Андрій

1

Порівняйте архітектури процесора та GPU (зображення від Nvidia).

Порівняння процесора та GPU

Багато АЛУ (арифметико-логічні одиниці) дають вам велику обчислювальну потужність (1000 тисяч ниток). Мінімальний контроль призводить до великих витрат на розгалуження та інших операцій, які не є "математичними" (і знижують цінник у магазині). Кеш дуже малий і керується здебільшого програмістом (апаратне забезпечення не повинно передбачати, що зберігати), тому це дешево. Більше того, GPU має власну "ОЗУ", тому він може працювати ефективніше, наприклад, 2 Гб даних (але все одно платить за них), ніж процесор, обмежений спілкуванням із зовнішніми підрозділами.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.