очень жаль, что у них не получилось догнать ати с нвидией. просто тупо по производительности. 2.5-кратное отставание означает, что если бы они закончили проект в прошлом году, как планировали, то все было бы ок.
с другой стороны, они обещают запихать его в нетбуки, это звучит обнадеживающе. через три месяца увидим.
Ядро х86 в разы жирнее, жручее и горячее чем маленькие специализированные граф.процессоры с небольшим и ортогональненьким набором команд. И сколько не старайся, даже при чуть лучшем техпроцессе "гигафлопс на ватт" будет заметно хуже. (По ваттам уже примерно упёрлись, так что хуже будет именно по флопсам-мипсам)
спасибо, посмеялся. специализированные и ортогональненьким - это да, а вот архитектура у них очень, очень complex. мегабайты кода драйверов и общая их нестабильность это косвенно подтверждают :)
где-то были статьи по реверсингу эволюций архитектур видеокарточек, не помню уже кто писал, правда((
но статьи хорошо подтверждались личными наблюдениями, и, вообщем, количество *специализированности* там зашкаливает. именно поэтому и выезжают. но это и усложняет, т.к. надо разбивать относительно вменяемый glsl/hlsl на совершенно разные наборы примитивов.
Мегабайты драйверов подтверждают многоступенчатые преобразования между видимым программисту интерфейсом и внутренним представлением, об архитектуре оно ничего не говорит. Общая нестабильность тупо свидетельствует о большом количестве деталей.
В общем, либо intel выпусти не x86, либо они будут сосать. А в свете openCL вопрос стоимости гигафлопс за бакс и ватт становится весьма животрепещущим.
Да, я рассматриваю собственно ядра ( по ошибке обозвав их процессорами), без учёта кэша и без учета того, что в "видеопроцессоре" ядер порядка тыщщи, а в новых интелях на порядок-два меньше. В видеокарточке "процессоры-ядра" реально маленькие, но их много.