Бред это полный!
Посмотри
вот эти результаты более-менее независимых тестов в HL2. Затем сделай поправку на т.н. Mixed Mode, в котором 5900У становится как минимум на 50% быстрее, и получим, что 5900У даже быстрее Радеона 9800Про!
Так что расслабься.
Вот еще цитата понравилась:
Проблема здесь заключается в том, что нормальное использование возможностей DirectX 9 на чипах nVIDIA возможно только если код игры специально заточен под них! Но Valve сделало и это, разработав отдельный, полностью оптимизированный под nVIDIA код (так называемый Mixed Mode).
Я просто тащусь от этого абзаца.
Во первых, Mixed Mode называется режим, в котором при обсчете шейдеров 2.0 временные и константные регистры используют 16 битную точность, а текстурные регистры используют 32 битную точность вычислений.
Full Precision Mode - это когда повсеместно используется 32-бит точность (речь идет о точности вычислений на 1 канал цвета, т.е. все современные игры оперируют лишь с 8 битами, а обсчет пиксельных шейдеров 1.х производится как правило с 12 бит точностью).
Во вторых читер здесь не nVidia, а Ati, которая в обоих режимах Mixed и Full Precision Mode использует 24-бит точность вместо требуемой спецификацией DirectX9.0 32-бит!
И никакой заточки кода под GeForce FX Valve не делала! Эти Mixed и Full Precision Mode просто переключаются одной командой в Open GL.
События видимо будут разворачиваться тем же образом, что и с 3DMark03. Программисты nVidia просто сядут и перепишут все шейдеры для HL2, чтобы они быстрее выполнялись при этом без потери качества (это возможно). Добавят это дело в следующих дровах и HL2 станет вполне шустро бегать GeForce FX. Если при этом качество не пострадает, то это можно будет смело назвать оптимизацией а не читингом.
Касательно качества картинки, еще вопрос что лучше: 24-бит точность Радеонов или Mixed Mode GeForce FX, т.к. текстурные регистры у GeForce FX 5900 (в отличае от 5800) работают с 32-бит точностью даже в Mixed Mode.
Литература:
Исследование вопроса о точности Pixel Shader 2.0