Nvidia geforce 8800 gts тесты. Обзор видеокарты ASUS EN8800GTS

8800 GTX стало эпохальным событием в истории 3D-графики. Это была первая карта с поддержкой DirectX 10 и связанной с ним единой модели шейдера, что значительно повысило качество изображения по сравнению с предыдущими поколениями, и в плане производительности она долго оставалась без конкурентов. К сожалению, вся эта мощь и стоила соответственно. Учитывая ожидаемую конкуренцию со стороны ATI и выпуск более дешевых моделей среднего уровня на основе той же технологии, GTX считалась картой, ориентированной лишь на тех энтузиастов, которые хотели быть на переднем крае современных достижений в области обработки графики.

История модели

Чтобы исправить эту ситуацию, компания nVidia через месяц выпустила карту той же линейки GTS 640MB, а еще через пару месяцев - GTS 320MB. Обе предлагали близкую к GTX производительность, но по гораздо более разумной цене. Однако при стоимости около 300-350 долларов они все еще были слишком дорогими для геймеров с ограниченным бюджетом - это были модели не среднего, а высокого класса. Оглядываясь назад, можно сказать, что GTS стоили каждого вложенного в них цента, поскольку то, что последовало за ними в течение оставшейся части 2007 года, вызывало одно разочарование вслед за другим.

Первыми появились карты предполагаемого среднего ценового диапазона 8600 GTS и GT, представлявшие собой сильно урезанные версии серии 8800. Они были меньше и тише и имели новые возможности обработки HD-видео, но их производительность оказалась ниже ожидаемого уровня. Приобретение их было нецелесообразным, хотя стоили они относительно недорого. Альтернативная видеокарта ATI Radeon HD 2900 XT соответствовала GTS 640MB в плане быстродействия, но под нагрузкой потребляла огромное количество энергии и была слишком дорогой, чтобы относиться к среднему диапазону. Наконец, компания ATI попыталась выпустить серию DX10 в форме HD 2600 ХТ и Pro, мультимедийные возможности которых были даже лучше, чем у nVidia 8600, но им не хватило мощности, чтобы стать достойными внимания геймеров, уже купивших видеокарты предыдущего поколения, такие как X1950 Pro или 7900 GS.

И вот спустя год после начала продаж 8800 GTX c выпуском 8800 GT появилось первое настоящее обновление модели с поддержкой DirectX 10. Хотя для этого потребовалось много времени, но у nVidia GeForce 8800 GT характеристики соответствовали модели GTS, а стоимость - в пределах 200-250 долларов, наконец, достигла того среднего ценового диапазона, которого все так долго ждали. Но что сделало карту такой особенной?

Больше - не значит лучше

По мере развития технологий и числа транзисторов в ЦПУ и ГПУ возникает естественная необходимость в уменьшении их размеров. Это ведет к снижению энергопотребления, что, в свою очередь, означает, меньший нагрев. На одном кристалле кремния умещается больше процессоров, что снижает их себестоимость и теоретически дает нижний предел цены на изготовленное из них оборудование. Однако изменение производственных процессов представляет высокие риски для бизнеса, поэтому принято выпускать абсолютно новую архитектуру на уже существующих и опробованных технологиях, как это было в случае с 8800 GTX и HD 2900 ХТ. С усовершенствованием архитектуры происходит переход на менее энергоемкое аппаратное обеспечение, на котором позже снова базируется новый дизайн.

По этому пути следовала серия 8800 с ядрами G80 у GTX и GTS, производимыми по 90-нм технологии, а nVidia GeForce 8800 GT основана на чипе G92, сделанном уже с использованием 65-нм процесса. Хотя изменение кажется не очень большим, оно равнозначно 34% сокращению размера подложки или 34% увеличению числа процессоров на кремниевой пластине. В итоге электронные компоненты становятся меньше, дешевле, более экономичными, что является исключительно положительным изменением. Впрочем, ядро G92 не просто уменьшилось, есть еще кое-что.

Прежде всего, движок обработки видео VP2, который использовался в серии 8600, теперь появился в GeForce 8800 GT 512MB. Так что теперь есть возможность наслаждаться видео высокой четкости без торможения системы. Окончательный движок дисплея, который управляется отдельным чипом на 8800 GTX также интегрирован в G92. В результате на кристалле стало на 73 миллиона транзисторов больше, чем у 8800 GTX (754 млн против 681 млн), хотя количество потоковых процессоров, мощностей для обработки текстуры и ROP стало меньше, чем у более мощной модели.

Новая версия алгоритма прозрачного сглаживания nVidia, добавленная в арсенал GeForce 8800 GT, призвана значительно улучшить качество изображения, сохраняя высокую производительность системы. Помимо этого, новых графических возможностей новый процессор не прибавил.

Компания-производитель, видимо, долго размышляла над тем, какой именно функционал предыдущих карт серии 8800 не использовался в полной мере и мог быть сокращен, а какой следовало оставить. Результатом стал дизайн графического процессора, который, с точки зрения показателей работы, расположился где-то между GTX и GTS, но с функционалом GTS. В итоге карта 8800 GTS стала совершенно излишней. 8800 Ultra и GTX по-прежнему обеспечивают более высокую графическую мощность, но с меньшим количеством функций, по гораздо большей цене и с высоким энергопотреблением. На этом фоне карта GeForce 8800 GT 512 МБ действительно заняла сильные позиции.

Архитектура графического процессора

В видеокарте GeForce 8800 GT использована та же унифицированная архитектура, которую компания nVidia представила, когда впервые сообщила о выпуске процессора G80. G92 состоит из 754 млн транзисторов и изготовлен по 65-нм процессу TSMC. Размер подложки составляет около 330 мм 2 , и хотя это заметно меньше, чем у G80, еще далеко до того, чтобы называться маленьким кусочком кремния. В общей сложности имеется 112 ядер скалярного потока, которые в стандартной конфигурации работают на частоте 1500 МГц. Они сгруппированы в 7 кластеров, каждый из которых имеет 16 потоковых процессоров, которые делят 8 адресных блоков текстур, 8 секций текстурных фильтров и собственный независимый кэш. Это такая же конфигурация, которую nVidia использовала в чипах G84 и G86 на уровне шейдерных кластеров, но G92 - гораздо более сложное ГПУ, чем любой из них.

Каждый из шейдерных процессоров за один такт может формировать две команды MADD и MUL, объединенные в единую структуру блоки могут обрабатывать все шейдерные операции и расчеты, которые поступают как в целочисленной, так и в форме с плавающей запятой. Любопытно, однако, что, несмотря на возможности потоковых процессоров быть такими же, как G80 (кроме количества и частоты), nVidia утверждает, что чип может совершать до 336 GFLOPS. Однако для вычисления NADD и MUL требуется скорость 504 GFLOPS. Как оказалось, компания-производитель использовала консервативный подход к определению вычислительной мощности и в расчете общей производительности не учла MUL. На брифингах и круглых столах представители nVidia рассказали, что некоторые архитектурные усовершенствования должны позволить чипу приблизиться к его теоретически максимальной пропускной способности. В частности, был улучшен диспетчер задач, распределяющий и уравновешивающий данные, которые поступают по конвейеру. NVidia объявила, что будет поддерживать двойную точность будущих графических процессоров, но данный чип ее лишь эмулирует, что связано с необходимостью следовать стандартам IEEE.

Архитектура ROP

Структура ROP у G92 похожа на строение любого другого графического процессора семейства GeForce восьмой серии. Это значит, что каждая секция имеет кэш второго уровня и назначена к 64-битному каналу памяти. В общей сложности есть 4 секции ROP и 256-битный интерфейс хранилища данных. Каждая из них способна обрабатывать 4 пикселя за такт, если каждый из них задан четырьмя параметрами (цветом RGB и Z). Если представлен только Z-компонент, то каждая секция может обрабатывать 32 пикселя за такт.

ROP поддерживают все распространенные форматы сглаживания, использовавшиеся в ГПУ предыдущих моделей восьмой серии GeForce. Так как чип имеет 256-битный интерфейс GDDR, nVidia решила сделать некоторые улучшения в эффективности сжатия ROP, чтобы сократить использование полосы пропускания и графической памяти при включенном сглаживании в разрешениях 1600х1200 и 1920х1200.

Как производная от оригинальной архитектуры G80, блоки фильтров и адресов текстур, а также секции ROP работают на тактовой частоте, отличной от частоты потоковых процессоров. Компания nVidia называет это основной скоростью. В случае GeForce 8800 GT характеристики видеокарты определяются частотой 600 МГц. Теоретически это приводит к скорости заполнения 9600 гигапикселей в секунду (Гп/с) и билинейной скорости закраски текстур 33,6 Гп/с. По мнению пользователей, тактовая частота очень занижена, а рост числа транзисторов не гарантирует добавления или сохранения функциональных возможностей. Когда компания перешла со 110-нм на 90-нм технологию, благодаря оптимизации она снизила число транзисторов на 10%. Поэтому будет неудивительно, если на чипе окажется еще как минимум 16 потоковых процессоров, отключенных в данном продукте.

Конструктивное исполнение

Эталонный дизайн карты предусматривает работу ядра, блока шейдеров и памяти на частоте 600 МГц, 1500 МГц и 1800 МГц соответственно. 8800 GT отличается однослотовой системой охлаждения, а глянцевый черный металлический кожух почти полностью скрывает ее лицевую сторону. Вентилятор диаметром 50 мм соответствует конструкции радиальных кулеров топ-моделей и выполняет свои обязанности очень тихо во всех режимах работы. Неважно, работает ли компьютер вхолостую, загруженный лишь рабочим столом Windows, или запущена любимая игра - его практически не будет слышно на фоне других источников шума в корпусе ПК. Однако стоит отметить, что при первом включении компьютера с новой видеокартой можно испугаться. Вентилятор начинает завывать, когда графический процессор загружен на полную мощность, но шум стихает еще до появления рабочего стола.

Металлическая лицевая панель притягивает отпечатки пальцев, но это мало должно волновать, так как после установки увидеть их будет невозможно. По отзывам пользователей, крышка помогает предотвратить случайное повреждение компонентов, таких как конденсаторы, на лицевой стороне карты. Печатная плата, окрашенная в зеленый цвет, в сочетании с черной лицевой панелью радиатора, обеспечивает 8800 GT узнаваемость. Модель маркирована логотипом GeForce вдоль верхнего края лицевой панели. Марк Рейн, вице-президент компании, сказал журналистам, что это повлекло дополнительные расходы, но было необходимо, чтобы помочь пользователям разобраться, какая видеокарта является сердцем системы на LAN-вечеринках.

Под радиатором скрываются восемь 512-мегабитных чипов графической памяти, что в общей сложности дает 512 МБ объема хранилища данных. Это GDDR3 DRAM с эффективной частотой до 2000 МГц. Графический процессор поддерживает как GDDR3, так и GDDR4, но в данной серии эта возможность так и не была использована.

Нагрев и потребляемая мощность

Видеокарта nVidia GeForce 8800 GT очень сексапильна. Ее дизайн просто очень приятен для глаз и, с учетом внутренних изменений в G92, от нее исходит ощущение выдержанного дизайна.

Более важным, чем эстетические аспекты, однако, по мнению пользователей является факт, что производителю удалось вместить всю мощь в однослотовое устройство. Это не просто желанное изменение, оно приятно удивляет. У GeForce 8800 GT характеристики таковы, что можно предположить наличие кулера высотой в два слота. Причиной того, почему nVidia обошлась таким тонким дизайном, стали изменения в процессе производства, которые позволили снизить нагрев до уровня, с которым смог справиться низкопрофильный вентилятор. На самом деле температурный режим снизился настолько, что даже сравнительно небольшой кулер не должен вращаться очень быстро, в результате чего карта остается практически бесшумной даже во время обработки интенсивных игр. Однако температура платы значительно повышается, поэтому требуется значительное количество воздуха для предотвращения перегрева. В результате уменьшения технологического процесса GeForce 8800 GT 512 MB потребляет лишь 105 Вт даже при полной нагрузке. Таким образом, требуется только один шестиконтактный разъем питания. Это еще одно приятное изменение.

Карта первая стала поддерживать PCIe 2.0, позволяющий получать мощность до 150 Вт. Однако в компании посчитали, что для обратной совместимости гораздо проще ограничить питание через него 75 ваттами. Это значит, что независимо от того, подключена карта к материнским платам с PCIe 1.1 или PCIe 2.0, через разъем поступает лишь 75 Вт, а остальная энергия поступает через дополнительный разъем.

Процессор VP2

Говоря о возможности передачи сигналов HDCP, стоит коснуться видеопроцессора нового поколения, который компания nVidia инкорпорировала в G92. VP2 является единым программируемым SIMD-процессором, гибкость которого позволяет ему расширяться в будущем. Он обеспечивает очень интенсивную обработку видео, кодированного в H.264, перекладывая нагрузку с ЦПУ на ГПУ. В дополнение к VP2 есть также потоковый процессор H.264 и дешифратор AES128. Первый из них специально разработан для ускорения схем кодирования CAVLC и CABAC - задач, которые очень загружают центральный процессор в чисто программной среде. AES128 позволяет быстрее обрабатывать протокол шифрования, необходимый для таких схем безопасности видеоконтента, как AACS и Media Foundation. Обе эти схемы требуют кодирования видеоданных (как сжатых, так и несжатых) при передаче по шинам, подобным PCI-Express.

Улучшение качества изображения

Компания nVidia упорно пытается улучшить технику прозрачного сглаживания, которая впервые появилась в 7-ой серии GeForce. Мультисэмплинг мало снижает производительность карты, но в большинстве случаев не является эффективным. С другой стороны, суперсэиплинг обеспечивает намного лучшее и более стабильное качество изображения, но за счет снижения скорости работы -- это невероятно ресурсоемкий способ сглаживания.

Драйвера, которые поставляются вместе с видеокартой, содержат новый алгоритм мультисэмплинга. Различия довольно значительные, но окончательное решение принимает сам пользователь. Хорошая новость заключается в том, что так как это изменение на уровне драйвера, то любое оборудование, которое поддерживает прозрачное сглаживание, может использовать новый алгоритм, в том числе карты, выпущенные после GeForce 7800 GTX. Чтобы активировать новый режим, нужно просто скачать последние обновления на сайте производителя.

По отзывам пользователей, для GeForce 8800 GT драйвер обновить труда не составит. Хотя веб-страница видеокарты содержит лишь ссылки на файлы для ОС Windows Vista и XP, поиск с главной страницы позволяет найти необходимое. Для nVidia GeForce 8800 GT драйвера Windows 7-10 устанавливаются утилитой GeForce 342.01 Driver объемом 292 МБ.

Возможности подключения

Выходные разъемы у nVidia GeForce 8800 GT вполне стандартные - 2 двухканальных DVI-I-порта с поддержкой HDCP, которые подходят как для аналоговых, так и цифровых интерфейсов мониторов и телевизоров, а 7-контактный аналоговый видеопорт обеспечивает обычный композитный и компонентный выход. Разъемы DVI можно использовать в сочетании с переходником DVI-VGA и DVI-HDMI, так что возможен любой вариант подключения. Тем не менее nVidia по-прежнему делает поддержку аудио для использования с разъемами HDMI опциональным вариантом для сторонних производителей - внутри VP2 аудиопроцессор отсутствует, поэтому звук реализуется через разъем S/PDIF на плате. Это разочаровывает, так как тонкая и тихая карта идеально подходит для игровых домашних кинотеатров.

GeForce 8800 GT является первой графической системой, совместимой с PCI Express 2.0, что означает возможность обращения к памяти со скоростью 16 ГБ/с. - в два раза быстрее предыдущего стандарта. Хотя это может быть полезным для рабочих станций и выполнения интенсивных вычислений, рядовому геймеру это не пригодится. В любом случае стандарт полностью совместим со всеми предыдущими версиями PCIe, поэтому беспокоиться не о чем.

Компании-партнеры nVidia предлагают разогнанные версии GeForce 8800 GT, а также пакеты с играми.

BioShock от 2К Games

BioShock являлась одной из лучших игр, существовавших на момент выпуска видеокарты. Это «генетически модифицированный» шутер от первого лица, события которого разворачиваются в подводном городе Rapture, созданном на дне Атлантического океана человеком по имени Эндрю Райан как часть реализации его мечты в стиле арт-деко 1930 годов. 2К Boston и 2K Australia лицензировали и использовали Unreal Engine 3 компании Epic Games, чтобы добиться лучшего эффекта, а также применили некоторые возможности DirectX 10. Все это управляется через опцию на панели управления графикой игры.

Место действия BioShock вынудило разработчиков использовать много шейдеров воды. Технология DirectX 10 помогла улучшить рябь при движении персонажей по воде, а для создания мокрых объектов и поверхностей массово использовались пиксельные шейдеры. Кроме того, DX10-версия игры использует буфер глубины для создания «мягких» эффектов частиц, при которых они взаимодействуют со своим окружением и выглядят более реалистично.

nVidia GeForce 8800 GT, характеристики которой позволяют ей в игре BioShock проявить себя с сильной стороны, на разрешении 1680x1050 лишь немного уступает GTX. При увеличении этого параметра разрыв между картами увеличивается, но не с большим отрывом. Причиной этого, вероятно, является тот факт, что игра не поддерживала прозрачное сглаживание, и массивное преимущество 8800 GTX в пропускной способности памяти становится спорным.

По отзывам пользователей, 8800 GT также достаточно хорошо работает со включенным SLI. Хотя ее возможности и близко не соответствуют GTX, видеокарте Radeon HD 2900 ХТ с объемом памяти 512 МБ в конфигурации CrossFire конкуренцию она составляет. Наверное, еще более интересным является факт, что на разрешении 1920х1200 видеокарта 8800 GT почти так же быстра, как GTS 640 МБ!

Crysis Syngle Player Demo от Electronic Arts

Эта игра заставит видеокарту плакать в буквальном смысле! Большим сюрпризом стала ее графика - она превзошла все, что было в компьютерных играх до нее. Тестирование с помощью встроенного определителя быстродействия графического процессора проходит намного быстрее, чем в действительности. Около 25 к/с в тесте производительности достаточно, чтобы получить приемлемую для пользователя частоту кадров. В отличие от других игр низкий фреймрейт здесь по-прежнему выглядит довольно ровно.

Видеокарта nVidia GeForce 8800 GT, характеристики которой в Crysis позволяют добиться достаточной частоты кадров на разрешении 1680x1050 с высокой детализацией под DirectX 10, не так быстра, как GTX, но заметно производительнее Radeon HD 2900 ХТ и 8800 GTS 640MB. GTS 320MB с трудом справляется с Crysis и потребуется снизить большинство настроек до средних, чтобы получить фреймрейт выше 25 к/с даже при качестве изображения 1280 х 1024 точек.

Производительность

Как и следовало ожидать, 8800 GTX осталась непревзойденной, но в целом GeForce 8800 GT GTS опережает в большинстве тестов. На самых высоких разрешениях и установках сглаживания сниженная пропускная способность памяти GT подводит и GTS время от времени вырывается вперед. Однако учитывая разницу в цене и другие преимущества, 8800 GT лучше в любом случае. И наоборот, сравнение GeForce GTX 8800/GT 8800 каждый раз подтверждает, почему первая карта стоит так дорого. В то время как другие модели начинают существенно тормозить с ростом количества точек изображения, с применением прозрачного сглаживания и анизотропной фильтрации, 8800 GTX продолжает демонстрировать отличные результаты. В частности, Team Fortress 2 при разрешении 1920x1200 с 8хАА и 16xAF на 8800 GTX идет вдвое быстрее, чем на GT. Однако по большей части видеокарта GeForce 8800 GT показывает хорошую производительность. Конечно, если не принимать во внимание невероятно низкую частоту кадров в Crysis.

Заключение

Хотя характеристики видеокарты GeForce 8800 GT и не превзошли спецификации лидера серии 8800 GTX, она обеспечивает близкую производительность за малую долю цены, а также включает много дополнительных возможностей. А если сюда добавить небольшие размеры и тихую работу, то модель покажется просто феноменальной.

Обновление: мы решили дополнить первоначальный обзор дополнительными теоретическими сведениями, сравнительными таблицами, а также результатами тестов американской лаборатории THG, где участвовала и "младшая" карта GeForce 8800 GTS. В обновлённой статье вы также найдёте тесты качества.

GeForce 8800 GTX - на голову выше конкурентов.

Вы наверняка слышали о DirectX 10 и чудесах, которые новый API обещает по сравнению с DX9. В Интернете можно найти скриншоты игр, которые всё ещё находятся в разработке. Но до сего момента видеокарт с поддержкой DX10 на рынке не было. И nVidia исправила этот недостаток первой. Поприветствуем выход видеокарт DirectX 10 в виде nVidia GeForce 8800 GTX и 8800 GTS!

Единая унифицированная архитектура сможет больше выжать из блоков шейдеров, поскольку их теперь можно использовать эффективнее, чем при фиксированной раскладке. Новую эру в компьютерной графике открывают GeForce 8800 GTX со 128 унифицированными блоками шейдеров и GeForce 8800 GTS с 96 такими блоками. Наконец-то прошли дни пиксельных конвейеров. Но давайте внимательнее посмотрим на новые карты.

На подложке показаны 80 графических ядер. Новый графический процессор обещает дать в два раза более высокую производительность, чем GeForce 7900 GTX (G71). 681 миллион транзисторов приводит к огромной площади кристалла, но когда мы спросили об этом, то CEO nVidia Джен-Хсун Хуан (Jen-Hsun Huang) ответил: "Если бы мои инженеры сказали, что могут удвоить производительность, удвоив площадь кристалла, я бы даже не сомневался!"

Как показывает опыт, удвоение площади отнюдь не удваивает производительность, но nVidia, похоже, нашла правильный баланс между технологическими продвижениями и реализацией кристалла на кремнии.

GeForce 8800 GTX и 8800 GTS полностью соответствуют стандарту DX10 и Shader Model 4.0, различным стандартам хранения и передачи данных, поддерживают геометрические шейдеры и потоковый вывод (Stream Out). Как же всё это реализовала nVidia?

Начнём с того, что nVidia отошла от фиксированного дизайна, который последние 20 лет использует индустрия, в пользу унифицированного шейдерного ядра.


Раньше мы демонстрировали схожие слайды, иллюстрирующие тенденцию увеличения мощности пиксельных шейдеров. nVidia прекрасно знает об этой тенденции и движется в сторону балансировки вычислительных потребностей, реализуя унифицированные шейдеры, через которые проходят потоки данных. Это даёт максимальную эффективность и производительность.

nVidia утверждает: "Команда разработчиков GeForce 8800 прекрасно понимала, что high-end 3D-игры DirectX 10 потребуют большой аппаратной мощности для расчёта шейдеров. Хотя DirectX 10 оговаривает унифицированный набор инструкций, стандарт не требует унифицированного дизайна шейдеров GPU. Но инженеры GeForce 8800 верили, что именно унифицированная шейдерная архитектура GPU позволит эффективно распределить нагрузку программ-шейдеров DirectX 10, улучшая архитектурную эффективность GPU и правильно распределяя доступную мощность".

GeForce 8800 GTX | 128 потоковых процессоров SIMD



Процессорное ядро работает на частоте 575 МГц у GeForce 8800 GTX и на 500 МГц - у GeForce 8800 GTS. Если остальная часть ядра работает на 575 МГц (или 500 МГц), то ядро шейдеров использует собственный тактовый генератор. У GeForce 8800 GTX оно работает на 1350 ГГц, а у 8800 GTS - на 1200 ГГц.

Каждый шейдерный элемент ядра называется потоковым процессором (Streaming Processor). У GeForce 8800 GTX используется 16 блоков по восемь таких элементов. В результате мы и получаем 128 потоковых процессоров. Подобно дизайну ATi R580 и R580+, где присутствуют блоки пиксельных шейдеров, nVidia планирует в будущем как добавлять, так и убирать блоки. Собственно, это мы и наблюдаем с 96 потоковыми процессорами в GeForce 8800 GTS.



Нажмите на картинку для увеличения.

GeForce 8800 GTX | сравнительная таблица спецификаций

nVidia раньше не могла одновременно выполнять полноэкранное сглаживание с HDR-освещением, но это уже история. Каждый блок растровых операций (ROP) поддерживает смешение кадрового буфера. Таким образом, со сглаживанием мультисэмплинга могут использоваться цели рендеринга как FP16, так и FP32. Под D3D10 ускорения обработки цветов и Z в блоках растровых операций могут использоваться до восьми множественных целей рендеринга, а также новые технологии сжатия.

GeForce 8800 GTX может заполнять 64 текстуры за такт, а при частоте 575 МГц мы получаем 36,8 млрд. текстур за секунду (GeForce 8800 GTS = 32 млрд./с). GeForce 8800 GTX обладает 24 блоками растровых операций (ROP) и при работе карты на частоте 575 МГц пиковая пиксельная скорость заполнения составляет 13,8 гигапикселя/с. Версия GeForce 880GTS обладает 20 ROP и даёт пиковую скорость заполнения 10 гигапикселей/с на частоте 500 МГц.

Спецификации nVidia GeForce
8800GTX 8800GTS 7950GX2 7900GTX 7800GTX 512 7800GTX
Техпроцесс (нм) 90 90 90 90 110 110
Ядро G80 G80 G71 G71 G70 G70
Число GPU 1 1 2 1 1 1
Число транзисторов на ядро (млн.) 681 681 278 278 302 302
Частота вершинных блоков (МГц) 1350 1200 500 700 550 470
Частота ядра (МГц) 575 500 500 650 550 430
Частота памяти (МГц) 900 600 600 800 850 600
Эффективная частота памяти (МГц) 1800 1200 1200 1600 1700 1200
Число вершинных блоков 128 96 16 8 8 8
Число пиксельных блоков 128 96 48 24 24 24
Число ROP 24 20 32 16 16 16
Ширина шины памяти (бит) 384 320 256 256 256 256
Объём памяти на GPU (Мбайт) 768 640 512 512 512 256
Пропускная способность памяти на GPU (Гбайт/с) 86,4 48 38,4 51,2 54,4 38,4
Число вершин/с (млн.) 10 800 7200 2000 1400 1100 940
Пиксельная пропускная способность (число ROP x частоту, в млрд./с) 13,8 10 16 10,4 8,8 6,88
Текстурная пропускная способность (число пикс. конвейеров x частоту, в млрд./с) 36,8 32 24 15,6 13,2 10,32
RAMDAC (МГц) 400 400 400 400 400 400
Шина PCI Express PCI Express PCI Express PCI Express PCI Express PCI Express

Обратите внимание на ширину шины памяти. Если взглянуть на схему, приведённую на предыдущей странице, у GPU GeForce 8800 GTX используются шесть разделов памяти. Каждый из них оснащён 64-битным интерфейсом к памяти, что даёт в сумме ширину 384 бита. 768 Мбайт памяти GDDR3 подключёны к подсистеме памяти, которая построена на высокоскоростном кросс-коммутаторе, как у GPU GeForce 7x. Этот кросс-коммутатор поддерживает память DDR1, DDR2, DDR3, GDDR3 и GDDR4.

GeForce 8800 GTX использует память GDDR3 с частотой по умолчанию 900 МГц (версия GTS работает на 800 МГц). С шириной 384 бита (48 байт) и частотой 900 МГц (1800 МГц эффективная частота DDR) пропускная способность составляет целых 86,4 Гбайт/с. А 768 Мбайт памяти позволяют хранить намного более сложные модели и текстуры, с более высоким разрешением и качеством.

GeForce 8800 GTX | nVidia отправляет ATi в нокаут


Нажмите на картинку для увеличения.

У нас есть хорошие и плохие новости. Хорошие - быстрее быстрого, они очень тихие и в них столько интересных технических штучек, для которых даже ещё нет софта. Плохая новость - их нет в продаже. Ну да, с новым "железом" всегда что-то не так. Sparkle продаёт такие карты по 635 евро. К подобным ценам на топовое "железо" мы уже начинаем привыкать.

Плата в длину составляет 27 сантиметров, поэтому установить её вы сможете далеко не в каждый корпус. Если в вашем компьютере жёсткие диски расположены прямо за слотами PCIe, то, скорее всего, установка GeForce 8800 GTX будет непростым делом. Конечно, диски всегда можно передвинуть в 5-дюймовый отсек через переходник, но согласитесь, в самой проблеме приятного мало.


Нажмите на картинку для увеличения.

Над технической реализацией не стоит смеяться. это лучший кусок "железа", который вы можете купить в подарок своему ПК на Новый год. Почему GeForce 8800 GTX вызвала столько внимания к себе среди интернет-общественности? Элементарно - дело в рекордных показателях производительности. Так, в Half-Life 2: Episode 1 количество кадров в секунду на GeForce 8800 GTX в разрешении 1600x1200 на целых 60 процентов выше, чем у топовых семейства Radeon X1000 (1900 XTX и X1950 XTX).

Oblivion на всех уровнях идёт запредельно плавно. Если точнее, то с включённым HDR-рендерингом в Oblivion скорость составляет не менее 30 fps. В игре Titan Quest не получается увидеть менее 55 кадров в секунду. Иногда задумываешься, не повис ли бенчмарк, или может с уровнями что-то произошло. Включение полноэкранного сглаживания и анизотропной фильтрации вообще никак не сказывается на GeForce 8800.

Это самая быстрая видеокарта среди всех моделей, выпущенных в 2006 году. Только Radeon X1950 XTX в парном режиме CrossFire кое-где догоняет 8800 GTX. Так что если вы спрашивали, на какой же карте Gothic 3, Dark Messiah и Oblivion не тормозят, то вот он ответ - перед вами GeForce 8800 GTX.

GeForce 8800 GTX | Два гнезда питания

Питание к поступает аж через два гнезда сверху платы. Оба необходимы - если вынуть кабель из левого, то 3D-производительность здорово снизится. Хотите, чтобы соседи сошли с ума? Тогда выньте правый - безумному писку, что начнёт раздаваться из платы, позавидует сигнализация вашего автомобиля. Сама плата при этом вообще не включится. Отметим, что nVidia рекомендует использовать с GeForce 8800 GTX блок питания мощностью не менее 450 ватт, и чтобы на линии 12 вольт могло быть 30 ампер.


На GeForce 8800 GTX подключены должны быть оба гнезда питания. Нажмите на картинку для увеличения.

Два гнезда питания объясняются просто. Согласно спецификациям PCI Express, на один слот PCIe может приходиться не более 75 Ватт энергии. Наш тестовый только в режиме 2D потребляет порядка 180 Ватт. Это на целых 40 Ватт больше, чем у Radeon X1900 XTX или X1950 XTX. Ну, а в режиме 3D плата "кушает" порядка 309 Ватт. Те же Radeon X1900/1950 XTX в этом случае потребляют от 285 до 315 Ватт. На какие нужды GeForce 8800 пускает столько энергии при работе в простом Windows, нам непонятно.

Ещё два разъёма зарезервированы под режим SLI. Согласно документации nVidia, для SLI требуется всего один штекер. Второй пока не используется. Теоретически, имея два разъёма, можно связать в многоплатную систему более двух . Появление второго разъёма можно увязать и с прогрессирующей популярностью аппаратного расчета физики. Может быть, через него будет подключаться ещё одна видеокарта, чтобы считать именно физические функции в движке игры. А может быть, речь идёт о Quad SLI на 4 платах, или о чём-то вроде того.


Для SLI теперь зарезервирован дополнительный разъём. Но с текущей версией драйвера воспользоваться можно лишь одним. Нажмите на картинку для увеличения.

GeForce 8800 GTX | Тихая система охлаждения

GeForce 8800 оснащена очень тихим 80-миллиметровым кулером-турбиной. Как и у Radeon X1950 XTX, он расположен в самом конце платы, чтобы прогонять прохладный воздух через всю поверхность GeForce 8800 и затем наружу. В конце платы установлена специальная решётка, которая выпускает горячий воздух не только наружу, через отверстие, занимающее второй слот, но и вниз, прямо в корпус. В общем, система несложная, но есть ряд спорных моментов.


Тёплый воздух выбрасывается через отверстие второго слота, но часть его попадает обратно в корпус через решётку на боковине GeForce 8800 GTX. Нажмите на картинку для увеличения.

Если в вашем компьютере PCIe-слоты находятся близко, и в SLI две платы встанут так, что зазор между ними будет не слишком велик, то температура в этом месте будет очень приличная. Нижняя карта будет дополнительно подогреваться верхней, через ту самую боковую решётку на системе охлаждения. Ну, а что случится, если установить три карты, лучше даже не думать. Получится отличный бытовой электронагреватель. В морозы будете работать около открытого окна.

Когда плата установлена в одиночку, система охлаждения впечатляет и отрабатывает на все сто. Как и у плат GeForce 7900 GTX, так и у она работает тихо. За весь шестичасовой тестовый прогон, при постоянной высокой нагрузке, плату не было слышно ни разу. Даже если полностью нагрузить плату работой, кулер на средних оборотах будет справляться с отводом тепла. Если вы поднесёте ухо к компьютеру сзади, то услышите лишь незначительный шум, своего рода тихое шуршание.


80-миллиметровый кулер работает тихо и никогда не включается на полную мощность. Система охлаждения платы занимает два слота. Нажмите на картинку для увеличения.

Специальный драйвер ForceWare 96.94, который nVidia приготовила для GeForce 8800 GTX, не выводит данные температурного мониторинга. До выхода этой версии вы могли выбрать между классическим и новым интерфейсом, но релиз 96.94 для прессы содержит только новую версию панели настроек . Если вы попытаетесь открыть настройки частот и температуры, драйвер отправит вас на сайт nVidia, чтобы вы могли скачать утилиту Ntune. Именно в ней и настраиваются эти функции. Скачиваем 30-мегабайтный архив и устанавливаем его. При первом запуске получаем полное зависание компьютера и Windows.

Если вы после установки Ntune выбираете регулировку частот и температуры в панели настроек, открывается специальная информационная страничка, где указаны настройки материнской платы. Никаких настроек , то есть информацию о частоте и температуре, вы найти не сможете. Поэтому мы проводили измерения температуры классическим способом - при помощи инфракрасного термометра. При полной загрузке измерения показали температуру 71 градус Цельсия, при работе в 2D-режиме карта удерживалась в рамках от 52 до 54 градусов.

Остаётся надеяться, что nVidia выпустит стандартную версию ForceWare для GeForce 8800. Классический интерфейс настройки иногда удобнее, к тому же, показывается информация о температуре, а при помощи coolbits можно регулировать частоты. Новый драйвер в паре с Ntune занимает порядка 100 мегабайт и сегментирован на немалое количество вкладок и окон. Работать с ним не всегда удобно.


В чипе GeForce 8800 GTX целых 681 миллион транзисторов, он производится по технологии 90 нанометров на фабрике TSMC. Нажмите на картинку для увеличения.

В чипе G80 GeForce 8800 GTX 681 миллион транзисторов. Это вдвое больше, чем в ядре Conroe процессоров Intel Core 2 Duo или в чипе GeForce 7. GPU видеокарты работает на частоте 575 МГц. Интерфейс памяти 384-битный и обслуживает 768 мегабайт. В качестве памяти nVidia использовала высокоскоростную GDDR3, которая работает на частоте 900 МГц.

Для сравнения: память GeForce 7900 GTX работает на частоте 800 МГц, а GeForce 7950 GT на 700 МГц. В видеокартах Radeon X1950 XTX используется память GDDR4 с частотой 1000 МГц. У карты GeForce 8800 GTS частота ядра составляет 500 МГц, объём памяти 640 Мбайт с частотой 800 МГц.

Результаты тестов показывают, что полноэкранное сглаживание и анизотропная фильтрация, наконец, никак при включении не снижают производительность. В ресурсоёмких играх, например, в Oblivion, раньше приходилось за этим следить, а теперь вы можете включать всё на максимум. Производительность предыдущих nVidia такова, что эти игры плавно шли только в разрешениях до 1024x768, при этом HDR-рендеринг с пиксельными шейдерами третьей версии отнимал огромное количество ресурсов. Видеокарты настолько мощны, что включение 4xAA и 8xAF без проблем позволяет играть в разрешениях до 1600x1200. Чип G80 поддерживает максимальные настройки сглаживания 16x и анизотропную фильтрацию 16x.


GeForce 8800 GTX поддерживает 16x сглаживание и анизотропную фильтрацию.

В сравнении с одиночными ATi у GeForce 8800 GTX нет конкурентов. Новинка nVidia теперь может вытянуть HDR-рендеринг с использованием третьих шейдеров и сглаживанием. HDR-рендеринг позволяет получить экстремальные отражения и блики, имитирует эффект ослепления, когда вы выходите из тёмного помещения на яркий свет. К сожалению, многие старые игры - Half Life Episode 1, Neef For Speed Most Wanted, Spellforce 2, Dark Messiah и другие - используют только вторые шейдеры для HDR-эффектов. Новые игры вроде Gothic 3 или Neverwinter Nights 2 используют предыдущий способ Bloom, как это было в Black & White 2. И хотя Neverwinter Nights 2 можно настроить для поддержки HDR-рендеринга, разработчик опасается этих функций, чтобы с нормальным FPS играть могли и те, у кого установлено обычное "железо". Правильно это реализовано в Oblivion, где есть и Bloom, и выдающиеся эффекты HDR-рендеринга через третьи шейдеры.

Поддерживает и четвёртые шейдеры (Shader Model 4.0), а самым важным нововведением является изменённая архитектура конвейера рендеринга. Она теперь не делится на пиксельные и вершинные шейдеры. Новое шейдерное ядро может обрабатывать все данные - вершинные, пиксельные, геометрические и даже физические. Это не навредило производительности - Oblivion работает почти вдвое быстрее, чем на оптимизированном под пиксельные шейдеры Radeon X1900 XTX или X1950 XTX.

Что поддерживает видеокарта в плане DirectX 10, пока невозможно протестировать. Windows Vista, Direct X 10 и игры под него ещё не существуют. Однако на бумаге всё выглядит более чем пристойно: геометрические шейдеры поддерживают карты смещения (Displacement Mapping), что позволит выводить ещё более реалистичные вещи, например, обсчитывать стереоскопические эффекты, объекты в форме желобов и гофрированные поверхности. Потоковый вывод (Stream Output) позволит получить ещё более качественные шейдерные эффекты для частиц и физики. Технология квантовых эффектов (Quantum Effect) хорошо справляется с просчётом эффектов дыма, тумана, огня и взрывов, и позволит снять их калькуляцию с центрального процессора. Всё это вместе даст значительно больше шейдерных и физических эффектов, которые можно будет увидеть в будущих играх. Как всё это будет реализовано на практике, в каких играх и в каком виде, покажет будущее.

GeForce 8800 GTX | Платы в тесте

Видеокарты на nVidia
и чип Кодовое название Память HDR-R Верш./пикс. шейдеры Частота GPU Частота памяти
nVidia GeForce 8800 GTX G80 768 Мбайт GDDR3 Да 4.0 575 МГц 1800 МГц
Asus + Gigabyte GeForce 7900 GTX SLI G71 512 Мбайт GDDR3 Да 3.0/3.0 650 МГц 1600 МГц
Gigabyte GeForce 7900 GTX G71 512 Мбайт GDDR3 Да 3.0/3.0 650 МГц
nVidia GeForce 7950 GT G71 512 Мбайт GDDR3 Да 3.0/3.0 550 МГц 1400 МГц
Asus GeForce 7900 GT Top G71 256 Мбайт GDDR3 Да 3.0/3.0 520 МГц 1440 МГц
nVidia GeForce 7900 GS G71 256 Мбайт GDDR3 Да 3.0/3.0 450 МГц 1320 МГц
Asus GeForce 7800 GTX EX G70 256 Мбайт GDDR3 Да 3.0/3.0 430 МГц 1200 МГц
Gigabyte GeForce 7800 GT G70 256 Мбайт GDDR3 Да 3.0/3.0 400 МГц 1000 МГц
Asus GeForce 7600 GT G73 256 Мбайт GDDR3 Да 3.0/3.0 560 МГц 1400 МГц
nVidia GeForce 6800 GT NV45 256 Мбайт GDDR3 Да 3.0/3.0 350 МГц 1000 МГц
Gainward GeForce 7800 GS+ GSa AGP G71 512 Мбайт GDDR3 Да 3.0/3.0 450 МГц 1250 МГц

В следующей таблице представлены ATi, принимавшие участие в нашем тестировании.

Видеокарты на ATi
Видеокарта и чип Кодовое название Память HDR-R Верш./пикс. шейдеры Частота GPU Частота памяти
Club 3D + Club 3D Radeon X1950 XTX CF R580+ 512 Мбайт GDDR4 Да 3.0/3.0 648 МГц 1998 МГц
Club 3D Radeon X1950 XTX R580+ 512 Мбайт GDDR4 Да 3.0/3.0 648 МГц 1998 МГц
HIS + HIS Radeon X1900 XTX CF R580 512 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
Gigabyte Radeon X1900 XTX R580 512 Мбайт GDDR3 Да 3.0/3.0 648 МГц 1548 МГц
Power Color Radeon X1900 XT R580 512 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
ATI Radeon X1900 XT R580 256 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1440 МГц
Sapphire Radeon X1900 GT R580 256 Мбайт GDDR3 Да 3.0/3.0 574 МГц 1188 МГц
HIS Radeon X1650 Pro Turbo RV535 256 Мбайт GDDR3 Да 3.0/3.0 621 МГц 1386 МГц
Gecube Radeon X1300 XT RV530 256 Мбайт GDDR3 Да 3.0/3.0 560 МГц 1386 МГц

GeForce 8800 GTX | Тестовая конфигурация

Для тестирования мы использовали три эталонных стенда. Все они были основаны на предельно идентичных компонентах - двуядерном процессоре AMD Athlon 64 FX-60 с частотой 2,61 ГГц, комплектовались 2 гигабайтами ОЗУ Mushkin MB HP 3200 2-3-2, двумя жёсткими дисками Hitachi по 120 Гбайт в конфигурации RAID 0. Отличие заключалось в использованных материнских платах - для тестов одиночных и плат nVidia в режиме SLI мы использовали материнскую плату Asus A8N32-SLI Deluxe. Чтобы тестировать видеокарты в режиме CrossFire (это обозначено аббревиатурой CF ниже на графиках), мы использовали такой же компьютер с эталонной материнской платой ATi на чипсете RD580. Наконец, AGP-видеокарты тестировались на компьютере в той же конфигурации, но на материнской плате ASUS AV8 Deluxe. Данные по конфигурации сведены в таблицу.

Для всех видеокарт nVidia (включая SLI) и одиночных карт Ati
Процессор
Частота шины 200 МГц
Материнская плата Asus A8N32-SLI Deluxe
Чипсет nVidia nForce4
Память
Жёсткий диск Hitachi 2 x 120 Гбайт SATA, кэш 8 Мбайт
DVD Gigabyte GO-D1600C
LAN-контроллер Marvell
Звуковой контроллер Realtek AC97
Блок питания Silverstone SST-ST56ZF 560 Вт
Для тестов видеокарт ATi в режиме CrossFire
Процессор Двуядерный AMD Athlon 64 FX-60 2.61 ГГц
Частота шины 200 МГц
Материнская плата Эталонная ATi
Чипсет ATI RD580
Память Mushkin 2x1024 MB HP 3200 2-3-2
LAN-контроллер Marvell
Звуковой контроллер AC97
Для тестов AGP-видеокарт
Процессор Двуядерный AMD Athlon 64 FX-60 2.61 ГГц
Частота шины 200 МГц
Материнская плата Asus AV8 Deluxe
Чипсет VIA K8T800 Pro
Память Mushkin 2x1024 MB HP 3200 2-3-2
LAN-контроллер Marvell
Звуковой контроллер Realtek AC97

На компьютерах для тестов одиночных видеокарт и плат nVidia в режиме SLI мы использовали Windows XP Professional с SP1a. Платы CrossFire и AGP-видеокарты тестировались на системах с установленной Windows XP Professional SP2. Версии драйверов и ПО сведены в следующую таблицу.

Драйверы и конфигурация
Видеокарты ATi ATI Catalyst 6.6, X1900 XTX, X1950 + Crossfire, X1650 + Crossfire, X1300 XT + Crossfire, Crossfire X1900, Crossfire X1600 XT ATI Catalyst 6.7 (entspricht Catalyst 6.8), Crossfire X1600 Pro, Crossfire X1300 Pro, Crossfire X1300 ATI Catalyst 6.8
Видеокарты nVidia nVidia Forceware 91.31, 7900 GS, nVidia Forceware 91.47, 7950 GT nVidia Forceware 91.47 (Special), 8800 GTX nVidia Forceware 96.94 (Special)
Операционная система Одиночные карты и SLI: Windows XP Pro SP1a, ATI Crossfire и AGP-видеокарты Windows XP Pro SP2
Версия DirectX 9.0c
Драйвер чипсета nVidia Nforce4 6.86, AGP VIA Hyperion Pro V509A

GeForce 8800 GTX | Результаты тестов

Эталонную плату мы в редакцию THG получили прямо из nVidia. Для тестирования нам предоставили специальный драйвер ForceWare 96.94, подготовленный эксклюзивно для прессы. - это карта с поддержкой DirectX 10 и Shader Model 4.0. Производительность в приложениях для DirectX 9 и Pixelshader 2 или Pixelshader 3 ошеломляет.

Включение сглаживания и анизотропной фильтрации почти не снижает производительность. В Half-Life 2 Episode 1 видеокарту GeForce 8800 GTX затормозить невозможно. В разрешении 1600x1200 чип на 60 процентов быстрее, чем Radeon X1950 XTX, в Oblivion производительность вдвое выше, чем у Radeon X1900 XTX или X1950 XTX. В игре Prey видеокарта в разрешении 1600x1200 на целых 55 процентов быстрее, чем Radeon X1950 XTX. В Titan Quest количество кадров в секунду не меняется, какое разрешение вы бы ни устанавливали, и составляет 55 FPS.

В тестах Half-Life 2: Episode 1 с HDR-рендерингом результаты платы впечатляют, но в низких разрешениях проигрывает Radeon X1950 XTX и платам в режиме CrossFire, находясь примерно на одном уровне с SLI-решениями на GeForce 7900 GTX. Отметим, что в низком разрешении лимитирующим фактором является не видеокарта. Чем выше мы задираем настройки, тем интереснее результат.

С включением сглаживания и анизотропной фильтрации картина начинает меняться. Все платы при этом немного теряют в производительности, но GeForce 8800 GTX падает при этом очень незначительно - всего на 10 fps в среднем, в то время как сдвоенная ATi Radeon X1950 XTX в режиме CrossFire теряет целых 20 fps.

Как только мы перешагиваем за разрешение 1280x1024 с включёнными сглаживанием и анизотропной фильтрацией, одиночная плата GeForce 8800 GTX выходит в несомненные лидеры. Показатели превышают таковые у Radeon X1950 XTX почти на 35 fps. Это существенная разница.

Дальше - больше. В 1600x1200 со сглаживанием и анизотропной фильтрацией отрыв от всех остальных плат становится кошмарным. В два раза от GeForce 7900 GTX SLI и чуть меньше от CrossFire Radeon X1950 XTX. Вот это дааа!

Наконец посмотрим на динамику снижения FPS с ростом разрешения и качества картинки. Мы видим, что у GeForce 8800 GTX снижение производительности незначительное - от голых 1024x768 до сглаженных и отфильтрованных методом анизотропии 1600x1200 разница составляет всего чуть больше 20 fps. Прежде топовые решения ATi и nVidia уходят далеко назад.

Игра Hard Truck: Apocalypse требовательна и к видеокарте, и к центральному процессору. Этим объясняются фактически одинаковые показатели в 1024x768, когда используется простая трилинейная фильтрация и выключено полноэкранное сглаживание.

Как только вы переходите на 4xAA и анизотропную фильтрацию 8x результаты начинают разниться. "Младшие" карты существенно теряют производительность, а как будто не замечает улучшения качества картинки.

В 1280x960 разница ещё более увеличивается, но GeForce 8800 GTX демонстрирует прежние показатели. Явно видно, что Athlon 64 FX-60 не способна поставить эту видеокарту на колени.

В 1600x1200 у всех одиночных плат показатели начинают стремиться к неиграбельным. Но GeForce 8800 GTX как показывала 51 fps, так и показывает.

Рассмотрим снижение производительности с ростом настроек. CrossFire Radeon X1950 XTX и GeForce 7900 GTX держатся рядом с , а карты старого поколения уже давно стоят на коленях и молят о пощаде.

В Oblivion, игре, которая нагружает видеокарту до предела, картина изначально удручающа для всех плат, кроме Radeon X1950 XTX в режиме CrossFire и . Мы собрали статистику и по работе видеокарт на открытых локациях, и при рендеринге закрытых помещений. Видно, что на свежем воздухе GeForce 8800 GTX стоит рядом или незначительно отстаёт от сдвоенной Radeon X1950 XTX.






Но когда разрешение доходит до 1600x1200, наша GeForce 8800 GTX уходит далеко вперёд. Особенно разрыв виден на закрытых уровнях.


Посмотрите на снижение производительности с ростом разрешения и качества. Картина не нуждается в комментариях. В закрытых локациях скорость непоколебима.


В игре Prey видеокарта находится между одноплатными решениями ATi Radeon X1950 XTX и этими же платами в режиме CrossFire. И чем выше разрешение, тем лучше выглядит GeForce 8800 GTX.




Сравнивать GeForce 8800 GTX с одноплатными решениями ATi и nVidia бесполезно. Разрыв в высоких разрешениях колоссален, да и в 1024x768 со сглаживанием он впечатляет.

В игре Rise of Nations: Rise of Legends видеокарта является единственным лидером. Если высчитывать разрыв между CrossFire Radeon X1950 XTX и GeForce 8800 GTX в процентах, то отрыв будет очень и очень велик. Если считать в fps, то разница не столь заметна, но всё же существенна.




Обратите внимание, как снижается скорость с ростом разрешения. При всех настройках GeForce 8800 GTX является лидером не только по сравнению с одиночными платами, но и с решениями SLI/CrossFire.

В игре Titan Quest карты nVidia показывают себя с лучшей стороны. При этом у от 1024x768 до 1600x1200 со сглаживанием и анизотропной фильтрацией fps не меняется.




Картину происходящего хорошо иллюстрирует следующий график. Производительность GeForce 8800 GTX находится на одном и том же уровне, вне зависимости от настроек.

В 3DMark06 карта отлично показывает себя и со вторыми, и с третьими шейдерами. Обратите внимание, насколько незначительно снижается производительность при включении анизотропии и сглаживания.


Рост разрешения тоже не пугает. Карта стоит на одном уровне с решениями SLI и CrossFire, значительно опережая всех предыдущих лидеров в одиночном забеге.


Чтобы вы лучше могли себе представить производительность в играх, мы перекомпоновали графики. Здесь нет сравнения, только чистый результат одной видеокарты. Стоит обратить внимание на то, что от разрешения к разрешению производительность GeForce 8800 GTX не меняется. Во всех играх ограничивающим фактором является недостаточно быстрый процессор AMD Athlon 64 FX-60. В будущем, с выходом гораздо более быстрых чипов, карта покажет себя ещё лучше в тех же самых играх. Думаем, и Core 2 Quad последнего поколения не способен заставить GeForce 8800 GTX достичь своего лимита.




Итак, покончив с результатами тестирования, давайте попытаемся составить рейтинг эффективности видеокарт. Для этого мы соберём воедино результаты всех игровых тестов и сопоставим их с ценой решения. За основу возьмём рекомендованные цены, то есть без наценок конкретных магазинов. Конечно, поначалу будут очень дорогими, и многие магазины заложат в цену избыточную прибыль. Но затем цены снизятся, и наверняка довольно скоро вы сможете приобрести GeForce 8800 GTX за более разумные деньги.

Как мы видим, по производительности GeForce 8800 GTX обходит практически все решения, включая сдвоенные CrossFire и SLI. В абсолютных показателях GeForce 8800 GTX очень быстра. Но как насчёт цены?

Цена у соответствующая - производитель просит за плату 635 евро. Это много, но ведь за две платы Radeon X1900 XTX в режиме CrossFire вам придётся заплатить больше - 700 евро. А за две Radeon X1950 XTX или SLI GeForce 7900 GTX целых 750 евро. При том, что в некоторых тестах одиночная GeForce 8800 GTX обходит эти решения, да и в корпусе занимает меньше места по ширине, есть о чём подумать.

Наконец разделим fps на деньги. Мы видим, что у этот показатель лучше, чем у SLI и CrossFire. Конечно, стоимость каждого fps будет выше, чем у GeForce 7800 GTX EX, и, конечно, заметно выше, чем у Radeon X1300 XT. Но и производительность платы соответствующая. Очень эффективное решение в ключе соотношения цены и производительности.

Мы решили дополнить наш обзор результатами тестов американской лаборатории THG, где также участвовала карта GeForce 8800 GTS. Обратите внимание, что из-за различий в тестовой конфигурации не следует напрямую сравнивать результаты, приведённые выше, с результатами американской лаборатории.


Карта GeForce 8800GTX длиннее, чем Radeon X1950XTX и большинство других карт на рынке. 8800GTS несколько короче.

Как и другие тесты графических видеокарт в 2006 году, мы проводили тестирование на платформе AMD Athlon FX-60. Также мы приведём результаты конфигураций с несколькими GPU. Кроме того, оценим, как ведут себя новые видеокарты, когда производительность упирается в CPU (низкое разрешение и качество картинки).

Системное аппаратное обеспечение
Процессоры AMD Athlon 64 FX-60, 2,6 ГГц, 1,0 ГГц HTT, кэш L2 1 Мбайт
Платформа nVidia: Asus AN832-SLI Premium, nVidia nForce4 SLI, BIOS 1205
Память Corsair CMX1024-4400Pro, 2x 1024 Мбайт DDR400 (CL3,0-4-4-8)
Жёсткий диск Western Digital Raptor, WD1500ADFD, 150 Гбайт, 10 000 об/мин, кэш 16 Мбайт, SATA150
Сеть Встроенная nForce4 Gigabit Ethernet
Видеокарты ATi Radeon X1950XTX 512 Мбайт GDDR4, 650 МГц ядро, 1000 МГц память (2,00 ГГц DDR)
Карты nVidia:
nVidia GeForce 8800GTX 768 Мбайт GDDR3, 575 МГц ядро, 1,350 ГГц потоковые процессоры, 900 МГц память (1,80 ГГц DDR)
XFX GeForce 8800GTS 640 Мбайт GDDR3, 500 МГц ядро, 1,200 ГГц потоковые процессоры, 800 МГц память (1,60 ГГц DDR)
nVidia GeForce 7900GTX 512 Мбайт GDDR3, 675 МГц ядро, 820 МГц память (1,64 ГГц DDR)
Блок питания PC Power & Cooling Turbo-Cool 1000 Вт
Кулер CPU Zalman CNPS9700 LED
Системное ПО и драйверы
ОС Microsoft Windows XP Professional 5.10.2600, Service Pack 2
Версия DirectX 9.0c (4.09.0000.0904)
Графические драйверы ATi - Catalyst 6.10 WHQL
nVidia - ForceWare 96.94 Beta

Во время первого прогона 3DMark мы проводили тесты на всех разрешениях, но с выключенными полноэкранным сглаживанием и анизотропной фильтрацией. Во втором прогоне мы включили опции улучшения картинки 4xAA и 8xAF.

nVidia в 3DMark05 явно находится на первом месте. GeForce 8800 GTX даёт такой же результат в разрешении 2048x1536, что ATi Radeon X1950 XTX в разрешении по умолчанию 1024x768. Впечатляет.

В Doom 3 обычно доминируют карты nVidia, поскольку их дизайн хорошо подходит для этой игры. Но ATi не так давно смогла "взять" эту игру с новыми картами.

Здесь мы впервые сталкиваемся с ограничениями вычислительной мощности CPU, поскольку при низком разрешении результат составляет где-то 126 кадров в секунду. Карта ATi способна дать более высокое число кадров в секунду на данной системной конфигурации. Причина кроется в драйверах. Дело в том, что ATi выпускает драйверы, которые меньше нагружают CPU. В результате CPU находится в более выгодных условиях и может дать больше производительности для графической подсистемы.

В целом же, победителем становятся новые карты 8800. Если посмотреть на результаты при всех разрешениях, новые карты DX10 обходят Radeon X1950 XTX, начиная от 1280x1024 и выше.

GeForce 8800 GTX и GTS | F.E.A.R.

В F.E.A.R. обычно лидируют карты nVidia. Но, опять же, здесь заметна меньшая нагрузка на CPU у драйверов ATi. Конечно, с более скоростной платформой результаты будут иными, но если ваш компьютер не является передовым, то данный тест наглядно показывает, как карты G80 будут на нём работать. Но если не считать теста в разрешении 1024x768, G80 просто убивает Radeon X1950 XTX. GTX - это монстр. И не важно, какую нагрузку мы даём на GeForce 8800 GTX, карта всегда обеспечивает более 40 кадров в секунду.


Нажмите на картинку для увеличения.

Второй скриншот (ниже) взят на 8800 GTX с теми же настройками.



Нажмите на картинку для увеличения.

Картинка nVidia по качеству намного превосходит скриншот ATi. Похоже, в этом отношении nVidia вновь вышла в лидеры. Перед нами ещё одно преимущество, которым обладают карты nVidia на чипе G80.


Перед вами таблица новых возможностей улучшения качества на картах G80.

Кроме новых видеокарт DX10, nVidia также показала несколько функций, которые будут доступны на картах G80. И первая из них - патентованная технология улучшения качества картинки под названием Coverage Sampled Antialiasing (CSAA).

Новая версия полноэкранного сглаживания использует область из 16 субсэмплов. По информации nVidia, в результате можно сжать "избыточную информацию о цветах и глубине в область памяти и пропускную способность четырёх или восьми мультисэмплов". Новый уровень качества работает более эффективно, снижая объём данных на сэмпл. Если CSAA не заработает с какой-либо игрой, то драйвер вернётся к традиционным методам сглаживания.


Нажмите на картинку для увеличения.

Перед тем, как мы закончим этот обзор, позвольте поговорить ещё о двух аспектах видеокарт, которые уже давно разрабатываются и со временем станут более важными. Первый аспект - воспроизведение видео. Во время правления GeForce 7 по качеству воспроизведения видео лидировали карты ATi Radeon X1900. Но ситуация изменилась с появлением унифицированных шейдеров с выделенным ядром Pure Video.

Благодаря умным алгоритмам и 128 вычислительным блокам, GeForce 8800 GTX смогла получить 128 из 130 баллов в HQV. В ближайшем будущем мы планируем выпустить более подробную статью, касающуюся качества картинки, так что следите за новостями на нашем сайте.

Наконец, очень сильной стороной G80 является то, что nVidia называет CUDA. Многие годы учёные и энтузиасты ищут способы, чтобы выжать больше производительности из мощных параллельных процессоров. Кластер Beowulf, конечно, не всем по карману. Поэтому обычные смертные предлагают разные способы, как можно использовать для вычислений видеокарту.

Проблема здесь следующая: графический процессор хорош для параллельных вычислений, но вот с ветвлениями он справляется плохо. Здесь как раз хорошо подходит CPU. Кроме того, если вы хотите использовать видеокарту, то следует программировать шейдеры, как это делают игровые разработчики. nVidia вновь решила выйти вперёд, представив архитектуру Compute Unified Device Architecture или CUDA.


Так может работать CUDA для симуляции жидкости.

nVidia выпустила компилятор C+, получающиеся программы которого могут масштабироваться под вычислительные мощности GPU (например, 96 потоковых процессоров в 8800 GTS или 128 в 8800 GTX). Теперь программисты получили возможность создавать программы, которые масштабируются по ресурсам как CPU, так и GPU. CUDA наверняка понравится разным программам распределённых вычислений. Впрочем, CUDA может использоваться не только для просчёта блоков, но и для симуляции других эффектов: объёмной жидкости, одежды и волос. Через CUDA на GPU можно потенциально перенести расчёты физики и даже других игровых аспектов.


Разработчикам будет представлен полный набор SDK.

GeForce 8800 GTX и GTS | Заключение

Те, кто сейчас перейдёт с GeForce 6 на , получат почти трёхкратное увеличение производительности. Неважно, когда выйдут игры для DirectX 10, не так важно, что нам дадут четвёртые шейдеры - уже сегодня GeForce 8800 GTX это самый быстрый чип. Такие игры, как Oblivion, Gothic 3 или Dark Messiah, будто ждали выхода чипа G80 и видеокарт . Играть без тормозов стало опять возможным. У GeForce 8800 GTX достаточно мощности для всех самых современных игр.

Система охлаждения работает тихо, 80-миллиметровый кулер на эталонной карте было не услышать. Даже при полной нагрузке скорость вращения кулера невысока. Интересно, чем на это ответит компания ATi. В любом случае, nVidia проделала чертовски хорошую работу и выпустила действительно мощную "железку".

Недостатки : длина платы 27 сантиметров, она занимает место двух слотов PCI Express. Блок питания должен быть, как минимум, на 450 ватт (12 В, 30 А). Для GeForce 8800 GTS минимумом станет БП на 400 ватт с 30 амперами по шине 12 вольт.

Следуя давним традициям, карты nVidia уже доступны в онлайновых магазинах. На международном рынке рекомендованная цена GeForce 8800GTX составляет $599, а GeForce 8800GTS - $449. Да и игры под DX10 должны вскоре появиться. Но что не менее важно, вы получите более качественную картинку уже в существующих играх.


Вот так может выглядеть супермодель, выведенная с помощью DX10. Нажмите на картинку для увеличения.

GeForce 8800 GTX и GTS | Мнение редактора

Лично я впечатлён реализацией DX10/D3D10 от nVidia. Просмотр Crysis в реальном времени и многочисленных демонстраций впечатляет. Реализация CUDA позволяет превратить видеокарту в нечто большее, чем просто устройство рендеринга кадров. Теперь программы смогут использовать не только ресурсы CPU, но и всю параллельную мощь универсального шейдерного ядра GPU. Не терпится посмотреть на подобные решения в реальности.

Но G80 оставляет желать лучшего. Чего же? Конечно, новых игр. Господа разработчики, будьте так добры, поскорее выпустите игры DX10.

GeForce 8800 GTX | Фотогалерея

Производители уже давно практикуют выпуск удешевленных решений на базе графических процессоров верхнего ценового сегмента. Благодаря подобному подходу существенно увеличивается вариация готовых решений, снижается их стоимость, а большинство пользователей зачастую отдают предпочтение продуктам с наиболее выгодным соотношением «цена/быстродействие».
Подобным образом компания NVIDIA поступила и с новейшим чипом G80, первым в мире графическим процессором, являющимся носителем унифицированной архитектуры и обладающим поддержкой нового API от Microsoft – DirectX 10.
Одновременно с флагманской видеокартой GeForce 8800 GTX вышла и более дешевая версия, именуемая GeForce 8800 GTS. От старшей сестры её отличает урезанное количество пиксельных процессоров (96 против 128), видеопамяти (640 МБ вместо 768 МБ у GTX). Следствием уменьшения количества чипов памяти стало уменьшение разрядности ее интерфейса до 320 бит (у GTX - 384 бит). С более детальными характеристиками рассматриваемого графического адаптера можно ознакомиться, изучив таблицу:

В нашу Тестовую лабораторию попала видеокарта ASUS EN8800GTS, которую мы сегодня и рассмотрим. Данный производитель является одним из крупнейших и наиболее успешных партнеров NVIDIA, и традиционно не скупится на оформление упаковки и комплектацию. Как говорится, «хорошей видеокарты должно быть много». Новинка поставляется в коробке внушительных размеров:


На лицевой ее стороне красуется персонаж из игры Ghost Recon: Advanced Warfighter. Одним изображением дело не ограничивается, - сама игра, как Вы уже догадались, идет в комплекте. На обратной стороне упаковки приведены краткие характеристики продукта:


В ASUS посчитали это количество информации недостаточным, сделав из коробки некое подобие книги:


Справедливости ради отметим, что этот метод практикуется уже довольно давно и, отнюдь, не только ASUS. Но, как говориться, всё хорошо в меру. Максимальная информативность обернулась практическим неудобством. Небольшое дуновение ветра - и верхняя часть обложки открывается. При транспортировке героя сегодняшнего обзора нам пришлось ухищряться и подгибать удерживающий язычок так, что бы он оправдывал своё предназначение. К сожалению, подогнув его, легко повредить упаковку. Ну и напоследок добавим, что размеры коробки неоправданно велики, что вызывает некоторые неудобства.

Видеоадаптер: комплектация и близкий осмотр

Что же, перейдем непосредственно к комплектации и самой видеокарте. Адаптер упакован в антистатический пакет и пенопластовую емкость, что исключает как электрическое, так и механическое повреждение платы. В коробке находятся диски, переходники «DVI -> D-Sub», шнуры VIVO и дополнительного питания, а так же футляр для дисков.


Из дисков, входящих в комплект, примечательна игра GTI racing и бенчмарк 3DMark06 Advanced Edition! Первый раз в комплекте серийной и причем массовой видеокарты замечен 3DMark06! Без сомнения, этот факт придется по вкусу пользователям, активно занимающимся бенчмаркингом.


Что же, переходим непосредственно к видеокарте. Она выполнена на базе печатной платы эталонного дизайна с применением референсной системы охлаждения, и от других подобных продуктов её отличает лишь наклейка с логотипом производителя, на которой сохраняется тематика Ghost Recon.


Обратная сторона печатной платы также ничем не примечательна – на ней распаяно множество smd-компонентов и регуляторы стабилизаторов напряжений, только и всего:


В отличие от GeForce 8800 GTX, для GTS требуется лишь один разъем дополнительного питания:


Помимо этого, она короче старшей сестры, что наверняка придется по вкусу обладателям небольших корпусов. В плане охлаждения отличий нет, и ASUS EN8800GTS, как и GF 8800 GTX, использует кулер с большим вентилятором турбинного типа. Радиатор выполнен из медного основания и алюминиевого кожуха. Теплопередача от основания к ребрам осуществляется отчасти по тепловым трубкам, что увеличивает общую эффективность конструкции. Горячий воздух выбрасывается за пределы системного блока, однако часть его, увы, остается внутри ПК благодаря некоторым отверстиям в кожухе системы охлаждения.


Впрочем, проблема сильного нагреве легко решается. Например, весьма неплохо улучшает температурный режим платы обдув тихоходным 120-миллиметровым вентилятором.
Помимо графического процессора, кулер охлаждает чипы памяти и элементы подсистемы питания, а так же ЦАП видеосигнала (чип NVIO).


Последний был вынесен за пределы основного процессора по причине высоких частот последнего, что вызывало наводки и, как следствие, помехи в работе.
К сожалению, это обстоятельство вызовет трудности при смене кулера, поэтому инженеры NVIDIA просто не имели права сделать его некачественным. Посмотрим на видеокарту в «голом» виде.


На PCB распаяны чип G80 ревизии A2, 640 МБ видеопамяти, набранной десятью чипами производства Samsung. Время выборки памяти составляет 1,2 нс, что немного выше, чем у GeForce 8800 GTX.


Обратите внимание, на плате есть два посадочных места под чипы. Будь они распаяны на PCB, суммарный объем памяти составил бы 768 МБ, а ее разрядность - 384 бит. Увы, разработчик видеокарты посчитал подобный шаг лишним. Такая схема применяется только в профессиональных видеокартах серии Quadro.
Напоследок отметим, что у карты только один разъем SLI, в отличие от GF 8800 GTX, у которой их два.

Тестирование, анализ результатов

Испытания видеокарты ASUS EN8800GTS проходили на тестовом стенде следующей конфигурации:
  • процессор - AMD Athlon 64 3200+@2400МГц (Venice);
  • материнская плата - ASUS A8N-SLI Deluxe, чипсет NVIDIA nForce 4 SLI;
  • оперативная память - 2х512Мб DDR400@240МГц, тайминги 3.0-4-4-9-1T.
Тестирование проводилось в операционной системе Windows XP SP2, установлен драйвер чипсета версии 6.86.
Утилита RivaTuner подтвердила соответствие характеристик видеокарты заявленным:


Частоты видеопроцессора составляют 510/1190 МГц, памяти - 1600 МГц. Максимальный нагрев, достигнутый после многократного прогона теста Canyon Flight из пакета 3DMark06, составил 76 °С при скорости вращения вентилятора штатной системы охлаждения, равной 1360 об/мин:


Для сравнения скажу, что в тех же условиях попавшая под руку GeForce 6800 Ultra AGP нагревалась до 85 °C при максимальной скорости вентилятора, а после длительной работы вообще зависала.

Производительность нового видеоадаптера проверялась с помощью популярных синтетических бенчмарков и некоторых игровых приложений.

Тестирование приложениями разработки Futuremark выявило следующее:


Конечно, на системе с более мощным центральным процессором, например, представителем архитектуры Intel Core 2 Duo, результат был бы лучше. В нашем случае морально устаревший Athlon 64 (пусть даже и разогнанный) не позволяет полностью раскрыть потенциал топовых видеокарт современности.

Перейдем к тестированию в реальных игровых приложениях.


В Need for Speed Carbon отчетливо видна разница между соперниками, и GeForce 7900 GTX отстает от карт поколения 8800 более чем ощутимо.


Поскольку для комфортной игры в Half Life 2 требуется не только мощная видеокарта, но и быстрый процессор, отчетливая разница в производительности наблюдается только в максимальных разрешениях с активированными анизотропной фильтрацией и полноэкранным сглаживанием.


В F.E.A.R. наблюдается примерно такая же картина, как и в HL2.


В тяжелых режимах игры Doom 3 рассматриваемая карта проявила себя очень неплохо, но сполна оценить отставание GeForce 8800 GTS от старшей сестры не позволяет все тот же слабый центральный процессор.


Поскольку Pray сделан на движке Quake 4, который в свою очередь является развитием Doom3, результаты производительности видеокарт в данных играх схожи.
Прогрессивность новой унифицированной шейдерной архитектуры и некоторое "урезание" возможностей относительно старшей сестры поставили GeForce 8800 GTS между самым быстрым графическим адаптером от NVIDIA на сегодня и флагманом семитысячной линейки. Впрочем, вряд ли калифорнийцы поступили бы иначе, - новинка такого класса должна быть мощнее предшественников. Радует, что GeForce 8800 GTS по скоростным возможностям находится гораздо ближе к GeForce 8800 GTХ, нежели к 7900 GTX. Оптимизм вселяет и поддержка самых новых графических технологий, которая должна оставить владельцам подобных адаптеров неплохой запас производительности на ближайшее (и, надеемся, более отдаленное) будущее.

Вердикт

После исследования карты у нас остались исключительно хорошие впечатления, которые намного улучшил фактор стоимости продукта. Так, в момент появления на рынке и некоторое время спустя ASUS EN8800GTS по данным price.ru стоила порядка 16000 руб, - ее цена была явно завышена. Теперь же карта длительный период продается примерно за 11500 руб, что не превышает стоимости аналогичных продуктов от конкурентов. Однако, учитывая комплектацию, детище ASUS, несомненно, находится в выигрышном положении.

Плюсы :

  • поддержка DirectX 10;
  • усиленная структура чипа (унифицированная архитектура);
  • отменный уровень производительности;
  • богатая комплектация;
  • именитый бренд;
  • цена находится на уровне продуктов от менее авторитетных конкурентов
Минусы :
  • не всегда удобная большая коробка
Благодарим Российское представительство компании ASUS за предоставленную на тестирование видеокарту.

Отзывы, пожелания и замечания по данному материалу принимаются в форума сайт .

Общеизвестно, что флагманские модели графических адаптеров, относящиеся к высшему ценовому диапазону, являются, в первую очередь, публичной демонстрацией технологических достижений компании-разработчика. Хотя эти решения пользуются заслуженной популярностью у игроков-энтузиастов, основной картины продаж они никогда не делают. Далеко не каждый способен или желает отдать $600, сумму, сопоставимую со стоимостью самой дорогой современной игровой консоли, только за графическую карту, поэтому, основной вклад в доходы AMD/ATI и Nvidia вносят менее дорогие, но гораздо более массовые карты.

9 ноября прошлого года Nvidia анонсировала первый потребительский графический процессор с унифицированной архитектурой и поддержкой DirectX 10. Новинка была подробно описана нами в обзоре Directly Unified: Nvidia GeForce 8800 Architecture Review. Изначально, новинка легла в основу двух новых графических карт – GeForce 8800 GTX и GeForce 8800 GTS. Как известно, старшая модель отлично показала себя в играх и вполне может считаться выбором энтузиаста, которого не смущает цена, младшая же модель заняла достойное место в своей ценовой категории – менее $500, но более $350.

$449 – не очень большая цена за продукт нового поколения, обладающий полноценной поддержкой DirectX 10 и могущий предложить пользователю серьезный уровень производительности в современных играх. Тем не менее, Nvidia решила не останавливаться на достигнутом, и 12 февраля 2007 года представила на суд публики более доступную модель GeForce 8800 GTS 320MB с официальной стоимостью $299, чем серьезно укрепила свои позиции в этом секторе. Об этих двух графических картах и пойдет речь в сегодняшнем обзоре. Попутно мы выясним, насколько критичен для семейства GeForce 8 объем видеопамяти.

GeForce 8800 GTS: технические характеристики

Для оценки качеств и возможностей обеих моделей GeForce 8800 GTS нам следует напомнить нашим читателям характеристики семейства GeForce 8800.


Все три модели GeForce 8800 используют одно и то же графическое ядро G80, состоящее из 681 миллиона транзисторов, а также дополнительный чип NVIO, содержащий в своем составе TMDS-трансмиттеры, RAMDAC и т.п.. Использование столь сложного чипа для производства нескольких моделей графических адаптеров, относящихся к разным ценовым категориям, не является самым лучшим вариантом с точки зрения себестоимости конечного продукта, однако и неудачным его не назовешь: у Nvidia появляется возможность продать отбракованные версии GeForce 8800 GTX (не прошедшие отбраковку по частотам и/или имеющих некоторое количество дефектных блоков), а себестоимость видеокарт, продающихся по цене свыше $250 едва ли критична. Данный подход активно используется как Nvidia, так и её заклятым конкурентом – ATI, достаточно вспомнить историю графического процессора G71, который можно найти как в массовом недорогом видеоадаптере GeForce 7900 GS, так и в мощном двухчиповом монстре GeForce 7950 GX2.

Таким же образом был создан и GeForce 8800 GTS. Как можно увидеть из таблицы, в плане технических характеристик этот видеоадаптер значительно отличается от старшего собрата: у него не только ниже тактовые частоты и отключена часть потоковых процессоров, но также сокращен объем видеопамяти, урезана ширина шины доступа к ней и неактивна часть TMU и блоков растеризации.

Всего GeForce 8800 GTS располагает 6 группами потоковых процессоров, по 16 ALU в каждой, что дает в сумме 96 ALU. Главный соперник этой карты, AMD Radeon X1950 XTX, несет в своем составе 48 пиксельных процессоров, каждый из которых, в свою очередь, состоит из 2 векторных и 2 скалярных ALU – в сумме 192 ALU.

Казалось бы, в чистой вычислительной мощности GeForce 8800 GTS должен достаточно серьезно уступать Radeon X1950 XTX, но существует ряд нюансов, делающих такое предположение не вполне правомерным. Первый из них заключается в том, что потоковые процессоры GeForce 8800 GTS, подобно ALU в Intel NetBurst, работают на значительно более высокой частоте, нежели остальные части ядра – 1200 МГц против 500 МГц, что уже означает весьма серьезную прибавку к производительности. Другой нюанс следует из особенностей архитектуры графического процессора R580. Теоретически, каждый из его 48 блоков исполнения пиксельных шейдеров способен выполнять 4 инструкции за такт, не считая инструкции ветвления. Однако только 2 из них будут иметь тип ADD/MUL/MADD, а две оставшиеся всегда представляют собой инструкции ADD с модификатором. Соответственно, эффективность пиксельных процессоров R580 будет максимальной не во всех случаях. С другой стороны, потоковые процессоры G80 имеют полностью скалярную архитектуру и каждый из них способен исполнять за такт две скалярные операции, например, MAD+MUL. Хотя точных данных об архитектуре потоковых процессоров Nvidia мы по-прежнему не имеем, в данной статье мы рассмотрим, насколько новая унифицированная архитектура GeForce 8800 прогрессивней архитектуры Radeon X1900 и как это отражается на скорости в играх.

Что касается производительности систем текстурирования и растеризации, то, судя по характеристикам, на стороне GeForce 8800 GTS большее количество текстурников (24) и растеризаторов (20) по сравнению с Radeon X1950 XTX (16 TMU, 16 ROP), однако, их тактовая частота (500МГц) ощутимо ниже тактовой частоты продукта ATI (650MHz). Таким образом, решающего преимущества не имеет ни одна из сторон, а значит, на производительность в играх повлияет в основном "удачность" микро-архитектуры, а не численное преимущество исполнительных блоков.

Примечательно, что как GeForce 8800 GTS, так и Radeon X1950 XTX имеют одинаковую пропускную способность памяти – 64ГБ/сек, однако GeForce 8800 GTS использует 320-битную шину доступа к видеопамяти, в ней используется память GDDR3, работающая на частоте 1600МГц, тогда как у Radeon X1950 XTX можно найти 2ГГц память GDDR4 с 256-битным доступом. С учетом деклараций ATI более совершенного контроллера памяти с кольцевой топологией у R580 по сравнению с типичным контроллером Nvidia, будет интересно посмотреть, получит ли решение ATI Radeon некоторое преимущество в высоких разрешениях при включенном полноэкранном сглаживании против конкурента нового поколения, как это случалось в случае с GeForce 7.

Менее дорогой вариант GeForce 8800 GTS c 320MB памяти, анонсированный 12 февраля 2007 года и призванный заменить GeForce 7950 GT в сегменте решений класса performance-mainstream, отличается от обычной модели только объемом видеопамяти. Фактически, для получения этой карты Nvidia понадобилось всего лишь заменить микросхемы памяти емкостью 512 Мбит на чипы емкостью 256 Мбит. Простое и технологичное решение, оно позволило утвердить Nvidia свое технологическое превосходство в достаточно популярной среди пользователей ценовой категории $299. В дальнейшем мы выясним, насколько это отразилось на производительности новинки и стоит ли потенциальному покупателю доплачивать $150 за модель с 640 МБ видеопамяти.

В нашем сегодняшнем обзоре GeForce 8800 GTS 640MB будет представлена видеоадаптером MSI NX8800GTS-T2D640E-HD-OC. Расскажем об этом продукте подробнее.

MSI NX8800GTS-T2D640E-HD-OC: упаковка и комплектация

Видеоадаптер прибыл в нашу лабораторию в розничном варианте – упакованный в красочную коробку вместе со всеми сопутствующими аксессуарами. Коробка оказалась сравнительно небольшой, особенно, в сравнении с коробкой от MSI NX6800 GT, которая в свое время могла поспорить по части габаритов с упаковками Asustek Computer. Несмотря на скромные размеры, упаковка MSI традиционно снабжена удобной ручкой для переноски.


Оформление коробки выполнено в спокойных бело-голубых тонах и не режет глаз; лицевую сторону украшает изображение симпатичной рыжеволосой девушки-ангела, так что об агрессивных мотивах, столь популярных среди производителей видеокарт, речи не идет. Три наклейки сообщают покупателю о том, что карта предварительно разогнана производителем, поддерживает HDCP и комплектуется полной версией игры Company of Heroes. На обратной стороне коробки можно найти информацию о технологиях Nvidia SLI и MSI D.O.T. Express. Последняя является технологией динамического разгона, и, по заявлению MSI, позволяет поднять производительность видеоадаптера на 2%-10%, в зависимости от используемого профиля разгона.

Открыв коробку, помимо самого видеоадаптера, мы обнаружили следующий набор аксессуаров:


Краткое руководство по установке
Краткое руководство пользователя
Переходник DVI-I -> D-Sub
Разветвитель YPbPr/S-Video/RCA
Кабель S-Video
Переходник питания 2хMolex -> 6-pin PCI Express
CD с драйверами и утилитами MSI
Двухдисковое издание игры Company of Heroes

Оба руководства выполнены в виде постеров; на наш взгляд, они слишком просты и содержат только самую базовую информацию. Погоня за количеством языков, а их в кратком руководстве пользователя 26, привело к тому, что ничего особенно полезного, кроме основных сведений по установке карты в систему, из него почерпнуть не удастся. Мы считаем, что руководства могли бы быть несколько поподробней, что дало бы некоторое преимущество неопытным пользователям.

Диск с драйверами содержит устаревшую версию Nvidia ForceWare 97.29, а также ряд фирменных утилит, среди которых отдельного упоминания заслуживают MSI DualCoreCenter и MSI Live Update 3. Первая представляет собой унифицированный центр управления, позволяющий осуществлять разгон как видеокарты, так и центрального процессора, однако, для полной функциональности программа требует наличия системной платы MSI, оснащенной чипом CoreCell и, следовательно, малополезна владельцам плат других производителей. Утилита MSI Live Update 3 предназначена для отслеживания обновлений драйверов и BIOS и удобного их обновления через Интернет. Это достаточно удобный способ, особенно для тех, кто не желает разбираться в тонкостях ручного процесса обновления BIOS видеоадаптера.

Наличие в комплекте полной версии популярной тактической RTS Company of Heroes заслуживает отдельной похвалы MSI. Это действительно игра высшей категории, с отличной графикой и досконально проработанным игровым процессом; многие игроки называют ее лучшей игрой в этом жанре, что подтверждается многочисленными наградами, в том числе – званием "Лучшая Стратегическая Игра E3 2006". Как мы уже отмечали, несмотря на принадлежность к жанру стратегий реального времени, Company of Heroes может похвастаться современной графикой на уровне неплохого шутера с видом от первого лица, поэтому игра отлично подходит для демонстрации возможностей GeForce 8800 GTS. Помимо Company of Heroes, на дисках можно найти демо-версию Warhammer 40.000: Dawn of War – Dark Crusade.

Комплектацию MSI NX8800GTS-T2D640E-HD-OC мы можем с уверенностью назвать хорошей благодаря наличию полной версии очень популярной тактической RTS Company of Heroes и удобному программному обеспечению от MSI.

MSI NX8800GTS-T2D640E-HD-OC: дизайн печатной платы

Для модели GeForce 8800 GTS Nvidia разработала отдельную, более компактную печатную плату, нежели та, что используется для производства GeForce 8800 GTX. Так как все GeForce 8800 поставляются партнерам Nvidia в уже готовом виде, практически все, что будет сказано ниже, относится не только к MSI NX8800GTS, но и к любой другой модели GeForce 8800 GTS, будь то вариант с 640 или 320 МБ видеопамяти.


Печатная плата GeForce 8800 GTS значительно короче платы GeForce 8800 GTX. Ее длина составляет всего 22.8 сантиметра против почти 28 сантиметров у флагманской модели GeForce 8. Фактически, габариты GeForce 8800 GTS те же, что и у Radeon X1950 XTX, даже чуть меньше, так как кулер не выступает за пределы PCB.

Наш экземпляр MSI NX8800GTS использует плату, покрытую маской зеленого цвета, хотя на сайте компании продукт изображен с PCB более привычного черного цвета. В настоящее время в продаже встречаются как "черные", так и "зеленые" GeForce 8800 GTX и GTS. Несмотря на многочисленные слухи, циркулирующие в Сети, никакой разницы, кроме, собственно, цвета PCB, между такими картами нет, что подтверждает и официальный веб-сайт Nvidia. Чем же обусловлен такой "возврат к корням"?

На этот счет есть немало противоречивых слухов. Согласно некоторым из них, состав черного покрытия более токсичен, нежели традиционного зеленого, другие считают, что черное покрытие сложнее в нанесении или более дорогое. На практике, скорее всего, это не так – как правило, цены на паяльные маски разных цветов одинаковы, что исключает дополнительные проблемы с масками определенных цветов. Наиболее вероятен самый простой и логичный сценарий – карты разных цветов выпускаются разными контрактными производителями – Foxconn и Flextronics. Причем, Foxconn, вероятно, использует покрытия обоих цветов, так как мы встречали и "черные" и "зеленые" карты этого производителя.


Система питания GeForce 8800 GTS почти не уступает по сложности аналогичной системе GeForce 8800 GTX и даже содержит большее количество электролитических конденсаторов, но имеет более плотную компоновку и только один разъем внешнего питания, благодаря чему, печатную плату удалось сделать значительно короче. За управление питанием GPU отвечает тот же цифровой ШИМ-контроллер, что и в GeForce 8800 GTX, Primarion PX3540. Управление питанием памяти осуществляет второй контроллер, Intersil ISL6549, который, к слову отсутствует на GeForce 8800 GTX, где схема питания памяти иная.

Левая часть печатной платы, где расположены основные компоненты GeForce 8800 GTS – GPU, NVIO и память, практически идентична аналогичному участку PCB GeForce 8800 GTX, что неудивительно, так как разработка всей платы с нуля потребовала бы значительных финансовых и временных затрат. Кроме того, значительно упростить плату для GeForce 8800 GTS, проектируя ее с нуля, скорее всего, не удалось бы, в свете необходимости использования того же тандема G80 и NVIO, что и на флагманской модели. Единственным видимым отличием от GeForce 8800 GTX является отсутствие второй "гребенки" интерфейса MIO (SLI), на месте которой находится место для установки технологического разъема с защелками-фиксаторами, возможно, выполняющего ту же функцию, но не распаянного. Сохранена даже 384-битная разводка шины памяти, а урезание самой шины до нужной ширины произведено простейшим способом: вместо 12 чипов GDDR3 установлено только 10. Так как каждый чип имеет 32-битную шину, 10 микросхем в сумме как раз и дают необходимые 320 бит. Теоретически, ничто не препятствует созданию GeForce 8800 GTS с 384-битной шиной памяти, но появление такой карты на практике крайне маловероятно, потому, большие шансы на выпуск имеет полноценная GeForce 8800 GTX с пониженными частотами.


На MSI NX8800GTS-T2D640E-HD-OC установлено 10 микросхем GDDR3 Samsung K4J52324QE-BC12 емкостью 512 Мбит, работающие при напряжении питания 1.8В и имеющие номинальную частоту 800 (1600) МГц. Согласно официальным спецификациям Nvidia на GeForce 8800 GTS, память этого видеоадаптера должна иметь именно такую частоту. Но рассматриваемая нами версия MSI NX8800GTS не зря имеет в названии буквы "OC" – она является предварительно разогнанной, поэтому память работает на несколько более высокой частоте 850 (1700) МГц, что дает прибавку в пропускной способности с 64 ГБ/сек. до 68 ГБ/сек.

Так как единственное отличие GeForce 8800 GTS 320MB от обычной модели заключается в уменьшенном вдвое объеме видеопамяти, на эту карту просто устанавливаются микросхемы памяти емкостью 256 Мбит, например, Samsung серии K4J55323QC/QI или Hynix HY5RS573225AFP. В остальном две модели GeForce 8800 GTS идентичны друг другу вплоть до мельчайших деталей.

Маркировка GPU NX8800GTS несколько отличается от маркировки процессора GeForce 8800 GTX и выглядит, как "G80-100-K0-A2", тогда, как в эталонной флагманской карте чип маркирован символами "G80-300-A2". Мы знаем, что на производство GeForce 8800 GTS могут пускаться экземпляры G80, имеющие дефекты в части функциональных блоков и/или не прошедшие отбора по частоте. Возможно, именно эти особенности и отражены в маркировке.

У процессора 8800 GTS активны 96 потоковых процессоров из 128, 24 TMU из 32 и 20 ROP из 24. Для стандартного варианта GeForce 8800 GTS базовая частота GPU составляет 500 МГц (513 МГц реальная частота), а частота работы шейдерных процессоров – 1200 МГц (1188 МГц реальная частота), но у MSI NX8800GTS-T2D640E-HD-OC эти параметры равны 576 и 1350 МГц, что соответствует частотам GeForce 8800 GTX. Насколько это отразится на производительности изделия MSI, мы выясним позднее, в разделе, посвященном результатам игровых тестов.

Конфигурация выходных разъемов NX8800GTS стандартна: два разъема DVI-I, способные работать в двухканальном режиме и универсальный семиконтактный разъем mini-DIN, позволяющий как подключение устройств HDTV по аналоговому интерфейсу YPbPr, так и устройств SDTV, использующих интерфейс S-Video или Composite. У продукта MSI оба разъема DVI заботливо прикрыты резиновыми защитными колпачками – достаточно бессмысленная, но приятная мелочь.

MSI NX8800GTS-T2D640E-HD-OC: конструкция системы охлаждения

Система охлаждения, установленная на MSI NX8800GTS, а также на подавляющем большинстве GeForce 8800 GTS других поставщиков графических карт, представляет собой укороченную версию системы охлаждения GeForce 8800 GTX, описанной в соответствующем обзоре.


Укорочены радиатор и тепловая трубка, передающая тепловой поток от медной подошвы, контактирующей с теплораспределителем графического процессора. Также по-иному расположена плоская U-образная тепловая трубка, впрессованная в основание и отвечающая за равномерное распределение теплового потока. Алюминиевая рама, на которой закреплены все детали кулера. имеет множество выступов в местах контакта с микросхемами памяти, силовыми транзисторами стабилизатора питания и кристаллом чипа NVIO. Надежный тепловой контакт обеспечивается традиционными подушечками из неорганического волокна, пропитанными белой термопастой. Для GPU используется другая, но также привычная нашим читателям густая темно-серая термопаста.

Благодаря тому, что в конструкции системы охлаждения сравнительно немного медных элементов, масса ее невелика, и крепление не требует применения специальных пластин, предотвращающих фатальный изгиб PCB. Восьми обычных подпружиненных болтов, крепящих кулер прямо к плате, вполне достаточно. Возможность повреждения графического процессора практически исключена, так как он снабжен крышкой-теплораспределителем и окружен широкой металлической рамкой, защищающей чип от возможного перекоса системы охлаждения, а плату – от излишнего изгиба.

За обдув радиатора отвечает радиальный вентилятор с диаметром крыльчатки примерно 75 миллиметров, имеющий те же электрические параметры, что и в системе охлаждения GeForce 8800 GTX – 0.48А/12В, и подключенный к плате посредством четырехконтактного разъема. Система закрыта полупрозрачным пластиковым кожухом таким образом, что горячий воздух выдувается наружу сквозь прорези в крепежной планке.

Конструкция кулеров GeForce 8800 GTX и 8800 GTS продумана, надежна, проверена временем, практически бесшумна в работе и обеспечивает высокую эффективность охлаждения, поэтому менять ее на что-либо другое бессмысленно. MSI заменила лишь наклейку Nvidia на кожухе на собственную, повторяющую рисунок на коробке и снабдила вентилятор еще одной наклейкой, со своим фирменным логотипом.

MSI NX8800GTS-T2D640E-HD-OC: шумность и уровень энергопотребления

Для оценки уровня шума, генерируемого системой охлаждения MSI NX8800GTS, был использован цифровой шумомер Velleman DVM1326 с разрешающей способностью 0.1 дБ. Измерения производились с использованием взвешенной кривой А. На момент проведения замеров, фоновый уровень шума в лаборатории составил 36 дБА, а уровень шума на расстоянии одного метра от работающего стенда, оснащенного графической картой с пассивным охлаждением, был равен 40 дБА.






С точки зрения шумности, система охлаждения NX8800GTS (и любого другого GeForce 8800 GTS) ведет себя совершенно так же, как и система, устанавливаемая на GeForce 8800 GTX. Уровень шума очень невысок во всех режимах; по этому параметру новая конструкция Nvidia превосходит даже великолепный кулер GeForce 7900 GTX, ранее по праву считавшийся лучшим в своем классе. Добиться полной бесшумности и не потерять в эффективности охлаждения в данном случае можно разве что путем установки водяной системы охлаждения, особенно, если планируется серьезный разгон.

Как известно нашим читателям, эталонные экземпляры GeForce 8800 GTX из первых партий отказывались запускаться на стенде, оборудованном для измерения уровня энергопотребления видеокарт. Однако, большинство новых карт, относящихся к семейству GeForce 8800, а среди них и MSI NX8800GTS-T2D640E-HD-OC, без проблем заработали на этой системе, имеющей следующую конфигурацию:

Процессор Intel Pentium 4 560 (3.60ГГц, 1МБ L2);
Системная плата Intel Desktop Board D925XCV (i925X);
Память PC-4300 DDR2 SDRAM (2x512МБ);
Жесткий диск Samsung SpinPoint SP1213C (120 ГБ, Serial ATA-150, буфер 8МБ);
Microsoft Windows XP Pro SP2, DirectX 9.0c.

Как мы сообщали, системная плата, являющаяся сердцем измерительной платформы, специальным образом модернизирована: в разрыв цепей питания слота PCI Express x16 включены измерительные шунты, оснащенные разъемами для подключения измерительной аппаратуры. Таким же шунтом оборудован и переходник питания 2xMolex -> 6-pin PCI Express. В качестве измерительного инструмента используется мультиметр Velleman DVM850BL, обладающий погрешностью измерений не более 0.5%.

Для создания нагрузки на видеоадаптер в режиме 3D применяется первый графический тест SM3.0/HDR, входящий в состав пакета Futuremark 3DMark06 и запускаемый в бесконечном цикле в разрешении 1600х1200 при форсированной анизотропной фильтрации 16х. Пиковый режим 2D эмулируется путем запуска теста 2D Transparent Windows, являющегося частью пакета Futuremark PCMark05.

Таким образом, проведя стандартную процедуру измерения, нам удалось получить достоверные данные об уровне энергопотребления не только MSI NX8800GTS-T2D640E-HD-OC, но и всего семейства Nvidia GeForce 8800.











GeForce 8800 GTX действительно опередил в плане энергопотребления предыдущего "лидера", Radeon X1950 XTX, но лишь на 7 Ватт. Учитывая огромную сложность G80, 131.5 Ватт в режиме 3D можно смело считать хорошим показателем. Оба дополнительных разъема питания GeForce 8800 GTX потребляют примерно одинаковую мощность, не превышающую 45 Ватт даже в самом тяжелом режиме. Хотя дизайн PCB GeForce 8800 GTX предполагает установку одного восьмиконтактного разъема питания вместо шестиконтактного, вряд ли она будет актуальной даже в случае значительного повышения тактовых частот GPU и памяти. В режиме простоя экономичность флагмана Nvidia оставляет желать много лучшего, но это расплата за 681 миллион транзисторов и огромную, по меркам GPU, частоту шейдерных процессоров. Отчасти столь высокий уровень энергопотребления в простое обусловлен и тем, что семейство GeForce 8800 не понижает тактовые частоты в этом режиме.

У обоих вариантов GeForce 8800 GTS показатели заметно скромнее, хоть и не могут похвастаться экономичностью на уровне карт Nvidia, использующих ядро предыдущего поколения, G71. На единственный разъем питания этих карт приходится значительно более серьезная нагрузка, в отдельных случаях могущая достигать 70 Ватт и более. Уровни энергопотребления вариантов GeForce 8800 GTS с 640 и 320 МБ видеопамяти отличаются незначительно, что неудивительно – ведь этот параметр является единственным отличием этих карт друг от друга. Продукт MSI, работающий на повышенных частотах, потребляет больше стандартной версии GeForce 8800 GTS - порядка 116 Ватт под нагрузкой в режиме 3D, что все равно меньше аналогичного показателя Radeon X1950 XTX. Конечно, в режиме 2D карта AMD значительно экономичнее, однако, видеоадаптеры этого класса приобретаются именно с целью использования в 3D, поэтому, этот параметр не столь критичен, как уровень энергопотребления в играх и трехмерных приложениях.

MSI NX8800GTS-T2D640E-HD-OC: особенности разгона

Разгон представителей семейства Nvidia GeForce 8800 сопряжен с рядом особенностей, о которых мы считаем нужным рассказать нашим читателям. Как вы, вероятно, помните, первые представители седьмого поколения GeForce, использующие 0.11-мкм ядро G70, могли повышать частоты блоков растеризации и пиксельных процессоров только с шагом 27 МГц, и если разгон оказывался меньше этого значения, прирост производительности практически отсутствовал. Позднее, в картах на базе G71 Nvidia вернулась к стандартной схеме разгона с шагом в 1 МГц, однако, в восьмом поколении GeForce дискретность изменения тактовых частот появилась вновь.

Схема распределения и изменения тактовых частот в GeForce 8800 достаточно нетривиальна, что связано с тем, что блоки шейдерных процессоров в G80 работают на значительно более высокой частоте, нежели остальные блоки GPU. Соотношение частот составляет примерно 2.3 к 1. Хотя основная частота графического ядра может меняться с меньшим шагом, нежели 27 МГц, частота шейдерных процессоров всегда изменяется с шагом 54 МГц (2х27 МГц), что создает дополнительные трудности при разгоне, ведь все утилиты манипулируют основной частотой, а вовсе не частотой шейдерного "домена". Существует, однако, несложная формула, позволяющая с достаточной точностью определить частоту потоковых процессоров GeForce 8800 после разгона:

OC shader clk = Default shader clk / Default core clk * OC core clk


Где OC shader clk – искомая частота (приблизительно), Default shader clk – начальная частота шейдерных процессоров, Default core clk - начальная частота ядра, а OC core clk – частота разогнанного ядра.

Рассмотрим характер поведения MSI NX8800GTS-T2D640E-HD-OC при разгоне с помощью утилиты RivaTuner2 FR, позволяющей отслеживать реальные частоты различных областей или, как их еще называют, "доменов" графического процессора G80. Поскольку продукт MSI имеет те же частоты GPU (576/1350), что и GeForce 8800 GTX, нижеследующая информация актуальна и для флагманской графической карты Nvidia. Мы будем повышать основную частоту GPU шагами по 5 МГц: это достаточно мелкий шаг и при этом он не кратен 27 МГц.


Эмпирическая проверка подтвердила: основная частота графического ядра действительно может меняться с переменным шагом – 9, 18 или 27 МГц, причем, закономерность изменения нам уловить не удалось. Частота шейдерных процессоров во всех случаях менялась шагами по 54 МГц. Из-за этого некоторые частоты основного "домена" G80 оказываются практически бесполезными при разгоне, и их использование приведет разве что к излишнему нагреву графического процессора. Например, нет никакого смысла добиваться прироста основной частоты ядра до 621 МГц – частота шейдерного блока все равно будет составлять 1458 МГц. Таким образом, разгон GeForce 8800 следует осуществлять тщательно, пользуясь вышеприведенной формулой и сверяясь с данными мониторинга Riva Tuner или другой утилиты с аналогичной функциональностью.

Ожидать серьезных результатов по разгону от версии NX8800GTS, уже разогнанной производителем, было бы нелогично, однако, карта неожиданно показала совсем неплохой потенциал, по крайней мере, со стороны графического процессора. Его частоты нам удалось поднять с заводских 576/1350 МГц до 675/1566 МГц, при этом, NX8800GTS устойчиво проходила несколько циклов 3DMark06 подряд без какого-либо дополнительного охлаждения. Температура процессора, по данным Riva Tuner, не превысила 70 градусов.

Память поддалась разгону значительно хуже, так как на NX8800GTX OC Edition были установлены микросхемы, рассчитанные на 800 (1600) МГц, работающие на частоте выше номинала – 850 (1700) МГц. В результате, нам пришлось остановиться на отметке 900 (1800) МГц, так как дальнейшие попытки поднятия частоты памяти неизменно приводили к зависанию или сбою в драйвере.

Таким образом, карта показала хороший потенциал к разгону, но только для графического процессора: сравнительно медленные микросхемы памяти не позволили значительно повысить ее частоту. Для них уровень GeForce 8800 GTX следует считать хорошим достижением, а 320-битная шина при такой частоте уже способна обеспечить серьезное превосходство в пропускной способности над Radeon X1950 XTX: 72 ГБ/сек против 64 ГБ/сек. Разумеется, результат разгона может варьироваться в зависимости от конкретного экземпляра MSI NX8800GTS OC Edition и применения дополнительных средств, таких, как модификация схемы питания карты или установка водяного охлаждения.

Конфигурация тестовой платформы и методы тестирования

Сравнительное исследование производительности GeForce 8800 GTX проводилось на платформах, имевших следующую конфигурацию.

Процессор AMD Athlon 64 FX-60 (2 x 2.60ГГц, 2 x 1МБ L2)
Системная плата Abit AN8 32X (nForce4 SLI X16) для карт Nvidia GeForce
Системная плата Asus A8R32-MVP Deluxe (ATI CrossFire Xpress 3200) для карт ATI Radeon
Память OCZ PC-3200 Platinum EL DDR SDRAM (2x1ГБ, CL2-3-2-5)
Жесткий диск Maxtor MaXLine III 7B250S0 (Serial ATA-150, буфер 16МБ)
Звуковая карта Creative SoundBlaster Audigy 2
Блок питания Enermax Liberty 620W (ELT620AWT, номинальная мощность 620W)
Монитор Dell 3007WFP (30", максимальное разрешение 2560x1600)
Microsoft Windows XP Pro SP2, DirectX 9.0c
AMD Catalyst 7.2
Nvidia ForceWare 97.92

Поскольку мы считаем применение оптимизаций трилинейной и анизотропной фильтрации неоправданным, драйверы были настроены стандартным образом, подразумевающим максимально возможное качество фильтрации текстур:

AMD Catalyst:

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive antialiasing: Off
Temporal antialiasing: Off
High Quality AF: On

Nvidia ForceWare:

Texture Filtering: High Quality
Vertical sync: Off
Trilinear optimization: Off
Anisotropic optimization: Off
Anisotropic sample optimization: Off
Gamma correct antialiasing: On
Transparency antialiasing: Off
Остальные настройки: по умолчанию

В каждой игре был установлен максимально возможный уровень качества графики, при этом, конфигурационные файлы игр модификациям не подвергались. Для снятия данных о производительности использовались либо встроенные возможности игры, либо, при их отсутствии, утилита Fraps. По возможности, фиксировались данные о минимальной производительности.

Тестирование проводилось в трех стандартных для принятой нами методики разрешениях: 1280х1024, 1600х1200 и 1920х1200. Одной из целей данного обзора является оценка влияния объема видеопамяти GeForce 8800 GTS на производительность. Помимо этого, технические характеристики и стоимость обоих вариантов этого видеоадаптера, позволяют рассчитывать на достаточно высокий уровень производительности в современных играх при использовании FSAA 4x, поэтому мы постарались использовать режим "eye candy" везде, где это возможно.

Активация FSAA и анизотропной фильтрации производилась средствами игры; в случае отсутствия таковых, их форсирование осуществлялось при помощи соответствующих настроек драйверов ATI Catalyst и Nvidia ForceWare. Тестирование без полноэкранного сглаживания применялось только для игр, не поддерживающих FSAA по техническим причинам, либо при использовании FP HDR одновременно с участием в тестировании представителей семейства GeForce 7, не поддерживающего одновременную работу этих возможностей.

Поскольку нашей задачей являлось, в том числе, и сравнение производительности графических карт, отличающихся только объемом видеопамяти, MSI NX8800GTS-T2D640E-HD-OC тестировалась 2 раза: при заводских частотах, и при частотах, пониженных до эталонных для GeForce 8800 GTS значений: 513/1188/800 (1600) МГц. Помимо продукта MSI и референсного экземпляра Nvidia GeForce 8800 GTS 320MB, в тестировании приняли участие следующие видеоадаптеры:

Nvidia GeForce 8800 GTX (G80, 576/1350/1900MHz, 128sp, 32tmu, 24rop, 384-bit, 768MB)
Nvidia GeForce 7950 GX2 (2xG71, 500/1200MHz, 48pp, 16vp, 48tmu, 32rop, 256-bit, 512MB)
AMD Radeon X1950 XTX (R580+, 650/2000MHz, 48pp, 8vp, 16tmu, 16rop, 256-bit, 512MB)

В качестве тестового программного обеспечения был использован следующий набор игр и приложений:

Трехмерные шутеры с видом от первого лица:

Battlefield 2142
Call of Juarez
Far Cry
F.E.A.R. Extraction Point
Tom Clancy"s Ghost Recon Advanced Warfighter
Half-Life 2: Episode One
Prey
Serious Sam 2
S.T.A.L.K.E.R.: Shadow of Chernobyl


Трехмерные шутеры с видом от третьего лица:

Tomb Raider: Legend


RPG:

Gothic 3
Neverwinter Nights 2
The Elder Scrolls IV: Oblivion


Симуляторы:


Стратегические игры:

Command & Conquer: Tiberium Wars
Company of Heroes
Supreme Commander


Синтетические игровые тесты:

Futuremark 3DMark05
Futuremark 3DMark06

Игровые тесты: Battlefield 2142


Между двумя вариантами GeForce 8800 GTS с разным объемом видеопамяти на борту не обнаруживается существенной разницы вплоть до разрешения 1920х1200, хотя в 1600х1200 младшая модель и уступает старшей порядка 4-5 кадров в секунду при вполне комфортной производительности обеих. Разрешение 1920х1440, однако, является переломным: GeForce 8800 GTS 320MB резко выбывает из игры с более чем 1.5-кратным отставанием в среднем и двукратным – в минимальном fps. Более того, она проигрывает и картам предыдущего поколения. Налицо нехватка видеопамяти или проблема с реализацией ее менеджмента у семейства GeForce 8800.

MSI NX8800GTS OC Edition заметно опережает эталонную модель, начиная с разрешения 1600х1200, но догнать GeForce 8800 GTX ему, конечно, не под силу, хотя в 1920х1440 разрыв между этими картами становится впечатляюще узким. Очевидно, что разница в ширине шины доступа к памяти у GeForce 8800 GTS и GTX здесь несущественна.

Игровые тесты: Call of Juarez


Обе модели GeForce 8800 GTS показывают одинаковый уровень производительности во всех разрешениях, включая 1920х1200. Это достаточно закономерно, учитывая тестирование с включенным HDR, но выключенным FSAA. Работая при номинальных частотах, карты уступают GeForce 7950 GX2.

Разогнанный вариант MSI позволяет добиться паритета в высоких разрешениях, использование которых в этой игре нецелесообразно даже в случае наличия в вашей системе GeForce 8800 GTX. К примеру, в 1600х1200 средняя производительности флагманской графической карты Nvidia составляет всего 40 fps с провалами в графически интенсивных сценах до 21 fps. Для шутера с видом от первого лица такие показатели едва ли можно назвать по настоящему комфортными.

Игровые тесты: Far Cry


Игра уже далеко не молода и плохо подходит для тестирования современных видеоадаптеров высокого класса. Несмотря на использование сглаживания, заметные отличия в их поведении можно увидеть только в разрешении 1920х1200. GeForce 8800 GTS 320MB сталкивается здесь с нехваткой видеопамяти, и поэтому уступает примерно 12% модели, оснащенной 640 МБ видеопамяти. Впрочем, из-за скромных по нынешним меркам требований Far Cry, потеря комфорта игроку не грозит.

MSI NX8800GTS OC Edition идет практически вровень с GeForce 8800 GTX: в Far Cry мощность последнего явно невостребована.


Из-за характера сцены, записанной на уровне Research, показания более разнообразны; уже в разрешении 1600х1200 можно увидеть отличия в производительности различных представителей семейства GeForce 8800. Причем, отставание версии с 320МБ памяти видно уже здесь, несмотря на то, что действие происходит в замкнутом пространстве подземной пещеры. Разница в производительности между продуктом MSI и GeForce 8800 GTX в разрешении 1920х1200 значительно больше, нежели в предыдущем случае, так как производительность шейдерных процессоров на этом уровне играет более важную роль.




В режиме FP HDR GeForce 8800 GTS 320MB более не испытывает проблем с объемом видеопамяти и ничем не уступает старшему собрату, обеспечивая достойный уровень производительности во всех разрешениях. Вариант, предлагаемый MSI, дает еще 15% прироста в скорости, но даже версия, работающая при стандартных тактовых частотах, достаточно быстра для использования разрешения 1920х1200, а GeForce 8800 GTX, вне сомнения, обеспечит комфортные условия игроку и в разрешении 2560х1600.

Игровые тесты: F.E.A.R. Extraction Point


Визуальное богатство F.E.A.R. требует соответствующих ресурсов от видеоадаптера, и 5%-отставание GeForce 8800 GTS 320MB видно уже в разрешении 1280х1024, а в следующем разрешении, 1600х1200, оно резко превращается в 40%.

Польза от разгона GeForce 8800 GTS неочевидна: как разогнанный, так и обычный варианты позволяют одинаково успешно играть в разрешении 1600х1200. В следующем же разрешении прироста скорости от разгона просто недостаточно, чтобы выйти на комфортный для шутеров с видом от первого лица уровень. Это под силу только GeForce 8800 GTX со 128 активными шейдерными процессорами и 384-битной подсистемой памяти.

Игровые тесты: Tom Clancy"s Ghost Recon Advanced Warfighter

Из-за использования отложенного рендеринга (deferred rendering) использование FSAA в GRAW невозможно технически, поэтому, данные приведены только для режима с анизотропной фильтрацией.


Преимущество MSI NX8800GTS OC Edition над обычной эталонной картой растет по мере роста разрешения, и в разрешении 1920х1200 достигает 19%. В данном случае именно эти 19% позволяют достичь средней производительности на уровне 55 fps, что вполне комфортно для игрока.

Что касается сравнения двух моделей GeForce 8800 GTS с разным объемом видеопамяти, то разница в их производительности отсутствует.

Игровые тесты: Half-Life 2: Episode One


В разрешении 1280х1024 налицо ограничение со стороны центрального процессора нашей тестовой системы – все карты показывают одинаковый результат. В 1600х1200 различия уже выявляются, но они непринципиальны, по крайней мере, для трех вариантов GeForce 8800 GTS: все три обеспечивают весьма комфортный уровень производительности. Аналогично можно сказать и про разрешение 1920х1200. Несмотря на качественную графику, игра нетребовательна к объему видеопамяти и проигрыш GeForce 8800 GTS 320MB старшей и значительно более дорогой модели с 640 МБ памяти на борту составляет лишь около 5%. Разогнанный вариант GeForce 8800 GTS, предлагаемый компанией MSI, уверенно занимает второе место после GeForce 8800 GTX.

Хотя GeForce 7950 GX2 и показывает лучшие результаты, нежели GeForce 8800 GTS в разрешении 1600х1200, не стоит забывать о проблемах, могущих возникнуть при использовании карты, являющейся, по сути, тандемом SLI, а также о значительно более низком качестве текстурной фильтрации у семейства GeForce 7. Новое решение Nvidia, конечно, пока также имеет проблемы с драйверами, но оно обладает перспективными возможностями, и, в отличие от GeForce 7950 GX2, имеет все шансы избавиться от "детских болезней" в кратчайшие сроки.

Игровые тесты: Prey


GeForce 8800 GTS 640MB не обнаруживает ни малейшего преимущества перед GeForce 8800 GTS 320MB, возможно, потому, что игра использует модифицированный движок Doom III и не проявляет особых аппетитов в смысле требований к объему видеопамяти. Как и в случае с GRAW, повышенная производительность NX8800GTS OC Edition позволяет рассчитывать владельцам этого видеоадаптера на достаточно комфортную игру в разрешении 1920х1200. Для сравнения, обычный GeForce 8800 GTS демонстрирует такие же цифры в разрешении 1600х1200. Флагман линейки, GeForce 8800 GTX вне конкуренции.

Игровые тесты: Serious Sam 2


Детище хорватских разработчиков из Croteam всегда жестко требовало от видеоадаптера наличия 512 МБ видеопамяти, в противном случае карая его чудовищным падением производительности. Объема, предоставляемого недорогим вариантом GeForce 8800 GTS, оказалось недостаточно, чтобы удовлетворить аппетиты игры, в результате чего, она смогла показать лишь 30 fps в разрешении 1280х1024, в то время как версия с 640 МБ памяти на борту оказалась быстрее более чем в два раза.

По неизвестной причине, минимальная производительность всех GeForce 8800 в Serious Sam 2 крайне низка, что может быть связано как с архитектурными особенностями семейства, имеющего, как известно, унифицированную архитектуру без разделения на пиксельные и вершинные шейдеры, так и с недоработками в драйверах ForceWare. По этой причине добиться полого комфорта владельцам GeForce 8800 в этой игре пока не удастся.

Игровые тесты: S.T.A.L.K.E.R.: Shadow of Chernobyl

С нетерпением ожидаемый многими игроками, проект GSC Game World после долгих лет разработки, наконец, увидел свет, спустя 6 или 7 лет после анонса. Игра получилась неоднозначной, но, тем не менее, достаточно многогранной, чтобы пытаться описать ее в нескольких фразах. Отметим лишь, что по сравнению с одной из первых версий, движок проекта был значительно усовершенствован. Игра получила поддержку ряда современных технологий, включая Shader Model 3.0, HDR, parallax mapping и другие, но не потеряла возможности работать в упрощенном режиме со статической моделью освещения, обеспечивая великолепную производительность на не очень мощных системах.

Поскольку мы ориентируемся на максимальный уровень качества изображения, мы тестировали игру в режиме полного динамического освещения с максимальной детализацией. В этом режиме, подразумевающим, в числе прочего, использование HDR, отсутствует поддержка FSAA; по крайней мере, так обстоят дела в текущей версии S.T.A.L.K.E.R. Поскольку при использовании статической модели освещения и эффектов DirectX 8, игра очень сильно теряет в привлекательности, мы ограничились анизотропной фильтрацией.


Игра отнюдь не страдает скромностью аппетитов – с максимальной детализацией даже GeForce 8800 GTX не в состоянии обеспечить в ней 60 fps в разрешении 1280х1024. Правда, надо отметить, что в низких разрешениях основным ограничивающим фактором является производительность CPU, так как разброс между картами невелик и их средние результаты довольно близки.

Тем не менее, некоторое отставание GeForce 8800 GTS 320MB от старшего собрата видно уже здесь, и с ростом разрешения оно лишь усугубляется, а в разрешении 1920х1200 младшему представителю семейства GeForce 8800 попросту не хватает имеющегося объема видеопамяти. Это неудивительно, учитывая масштабность игровых сцен и обилие спецэффектов, используемых в них.

В целом, можно сказать, что GeForce 8800 GTX не обеспечивает серьезного преимущества в S.T.A.L.K.E.R. перед GeForce 8800 GTS, а Radeon X1950 XTX выглядит столь же успешно, что и GeForce 8800 GTS 320MB. Решение AMD даже в чем-то превосходит решение Nvidia, так как оно работоспособно в разрешении 1920х1200, однако, практическое использование такого режима нецелесообразно из-за средней производительности на уровне 30-35 fps. Это же относится и к GeForce 7950 GX2, который, к слову, несколько опережает и непосредственного конкурента и младшую модель нового поколения.

Игровые тесты: Hitman: Blood Money


Ранее мы отметили, что наличие 512 МБ видеопамяти обеспечивает такому видеоадаптеру некоторый выигрыш в Hitman: Blood Money в высоких разрешениях. По-видимому, 320 МБ также достаточно, поскольку GeForce 8800 GTS 320MB практически не уступает обычному GeForce 8800 GTS вне зависимости от используемого разрешения; разница не превышает 5%.

Обе карты, а также разогнанный вариант GeForce 8800 GTS, предлагаемый MSI, позволяют успешно играть во всех разрешениях, а GeForce 8800 GTX даже допускает использование более качественных режимов FSAA, нежели обычный MSAA 4x, так как обладает необходимым для этого запасом производительности.

Игровые тесты: Tomb Raider: Legend


Несмотря на использование настроек, обеспечивающих максимальное качество графики, GeForce 8800 GTS 320MB справляется с игрой столь же успешно, как и обычный GeForce 8800 GTS. Обе карты делают доступным игроку разрешение 1920х1200 в режиме "eye candy". MSI NX8800GTS OC Edition несколько превосходит обе референсные карты, но только в среднем fps – минимальный остается таким же. Не больше он и у GeForce 8800 GTX, что может означать, что данный показатель обусловлен какими-то особенностями игрового движка.

Игровые тесты: Gothic 3

Текущая версия Gothic 3 не поддерживает FSAA, поэтому тестирование проводилось только с использованием анизотропной фильтрации.


Несмотря на отсутствие поддержки полноэкранного сглаживания, GeForce 8800 GTS 320MB серьезно уступает не только обычному GeForce 8800 GTS, но и Radeon X1950 XTX, немного опережая лишь GeForce 7950 GX2. Из-за производительности на уровне 26-27 fps в разрешении 1280х1024 эта карта подходит для Gothic 3 не лучшим образом.

Отметим, что GeForce 8800 GTX опережает GeForce 8800 GTS, в лучшем случае, на 20%. По всем видимости, что игра неспособна задействовать всех ресурсов, которыми располагает флагманская модель Nvidia. Об этом говорит и незначительная разница между обычным и разогнанным вариантом GeForce 8800 GTS.

Игровые тесты: Neverwinter Nights 2

Начиная с версии 1.04, игра позволяет использовать FSAA, но поддержка HDR все еще остается незавершенной, поэтому мы тестировали NWN 2 в режиме "eye candy".


Как уже упоминалось, минимальный барьер играбельности для Neverwinter Nights 2 составляет 15 кадров в секунду, и GeForce 8800 GTS 320MB балансирует на этой грани уже в разрешении 1600х1200, в то время как для версии с 640 МБ памяти 15 fps является минимальным показателем, ниже которого ее производительность не опускается.

Игровые тесты: The Elder Scrolls IV: Oblivion

Без HDR игра значительно теряет в привлекательности, и, хотя на этот счет мнения игроков расходятся, мы тестировали TES IV именно в режиме с включенным FP HDR.


Производительность GeForce 8800 GTS 320MB напрямую зависит от используемого разрешения: если в 1280х1024 новинка в состоянии конкурировать с наиболее производительными картами предыдущего поколения, то в 1600х1200 и, особенно, 1920х1200 она им проигрывает, уступая до 10% Radeon X1950 XTX и до 25% GeForce 7950 GX2. Тем не менее, это очень хороший результат для решения, имеющего официальную цену всего $299.

Обычный GeForce 8800 GTS и его разогнанный вариант, предлагаемый MSI, чувствуют себя более уверенно и обеспечивают комфортную производительность на уровне шутеров с видом от первого лица во всех разрешениях.


Исследуя две версии GeForce 7950 GT, различающиеся объемом видеопамяти, мы не зафиксировали серьезных расхождений в производительности в TES IV, однако, в аналогичной ситуации с двумя версиями GeForce 8800 GTS картина совершенно иная.
Если в 1280х1024 они ведут себя одинаково, то уже в 1600х1200 вариант с 320 МБ памяти более чем вдвое уступает варианту, оснащенному 640 МБ, а в разрешении 1920х1200 его производительность опускается до уровня Radeon X1650 XT. Совершенно очевидно, что дело здесь не в объеме видеопамяти, как таковом, а в особенностях ее распределения драйвером. Вероятно, проблема может быть исправлена путем доработки ForceWare, и с выходом новых версий драйверов Nvidia мы проверим это утверждение.

Что касается GeForce 8800 GTS и MSI NX8800GTS OC Edition, то даже на открытых пространствах мира Oblivion они обеспечивают высокий уровень комфорта во всех разрешениях, хотя, конечно, и не в районе 60 fps, как в закрытых помещениях. Наиболее мощные решения предыдущего поколения просто не в состоянии соперничать с ними.

Игровые тесты: X3: Reunion


Средняя производительность всех представителей семейства GeForce 8800 достаточно высока, но минимальная по-прежнему находится на низком уровне, что означает необходимость доработки драйверов. Результаты GeForce 8800 GTS 320MB те же, что и у GeForce 8800 GTS 640MB.

Игровые тесты: Command & Conquer 3: Tiberium Wars

Серия стратегий реального времени Command & Conquer, вероятно, знакома всем, кто мало-мальски увлекается компьютерными играми. Продолжение серии, недавно выпущенное Electronic Arts переносит игрока в хорошо знакомый мир противостояния GDI и Brotherhood of Nod, к которым, на этот раз, присоединилась третья фракция в лице инопланетных захватчиков. Движок игры выполнен на современном уровне и использует продвинутые спецэффекты; кроме того, он обладает одной особенностью – ограничителем fps, зафиксированным на отметке 30 кадров в секунду. Возможно, это сделано с целью ограничить скорость работы AI и, таким образом, избежать нечестного преимущества над игроком. Поскольку штатными средствами ограничитель не отключается, мы тестировали игру с ним, а значит, обращали внимание в первую очередь на минимальный fps.


30 fps способны обеспечить практически все участники тестирования во всех разрешениях, за исключением GeForce 7950 GX2, который испытывает проблемы с функционированием режима SLI. Скорее всего, в драйвере просто отсутствует соответствующая поддержка, так как последний раз официальный Windows XP драйвер Nvidia ForceWare для семейства GeForce 7 обновлялся более полугода назад.

Что касается обеих моделей GeForce 8800 GTS, то они демонстрируют одинаковый минимальный fps, и, следовательно, обеспечивают одинаковый уровень комфорта для игрока. Хотя модель с 320 МБ видеопамяти уступает старшей модели в разрешении 1920х1200, 2 кадра в секунду едва ли является критичной величиной, что, при одинаковой минимальной производительности, опять-таки, никак не влияет на игровой процесс. Полное отсутствие дискретности управления может обеспечить только GeForce 8800 GTX, чей минимальный fps не падает ниже отметки 25 кадров в секунду.

Игровые тесты: Company of Heroes

Из-за проблем с активацией FSAA в этой игре мы решили отказаться от использования режима "eye candy" и тестировали ее в режиме чистой производительности с включенной анизотропной фильтрацией.


Перед нами еще одна игра, где GeForce 8800 GTS 320MB уступает предыдущего поколения с неунифицированной архитектурой. По сути, решение Nvidia стоимостью $299 пригодно для использования в разрешениях не выше 1280х1024, даже несмотря на отключенное сглаживание, в то время как модель стоимостью $449, отличающаяся единственным параметром – объемом видеопамяти, позволяет успешно играть даже в 1920х1200. Впрочем, это доступно и владельцам AMD Radeon X1950 XTX.

Игровые тесты: Supreme Commander


А вот Supreme Commander, в отличие от Company of Heroes, не предъявляет жестких требований к объему видеопамяти. В этой игре GeForce 8800 GTS 320MB и GeForce 8800 GTS показывают одинаково высокий результат. Некоторый дополнительный прирост можно получить с помощью разгона, что демонстрирует изделие MSI, но достичь уровня GeForce 8800 GTX такой шаг все равно не даст. Впрочем, имеющейся производительности достаточно для использования всех разрешений, включая 1920х1200, тем более что ее флуктуации невелики, и минимальный fps лишь немногим уступает среднему.

Синтетические тесты: Futuremark 3DMark05


Так как по умолчанию 3DMark05 использует разрешение 1024х768 и не использует полноэкранного сглаживания, то GeForce 8800 GTS 320MB закономерно демонстрирует тот же результат, что и обычный вариант с 640 МБ видеопамяти. Разогнанная версия GeForce 8800 GTS, поставляемая на рынок Micro-Star International, может похвастаться красивым ровным результатом – 13800 очков.






В отличие от общего результата, получаемого в режиме по умолчанию, результаты отдельных тестов мы получаем, запуская их в режиме "eye candy". Но в данном случае это никак не сказалось на производительности GeForce 8800 GTS 320MB – сколько-нибудь заметного отставания от GeForce 8800 GTS зафиксировано не было даже в третьем, наиболее ресурсоемком тесте. MSI NX8800GTS OC Edition во всех случаях занял стабильное второе место после GeForce 8800 GTX, подтвердив результаты, полученные в общем зачете.

Синтетические тесты: Futuremark 3DMark06


Оба варианта GeForce 8800 GTS ведут себя так же, как и в предыдущем случае. Однако 3DMark06 использует более сложную графику, что, в сочетании с использованием FSAA 4x в отдельных тестах, может дать другую картину. Давайте посмотрим.






Результаты отдельных групп тестов также закономерны. В группе SM3.0/HDR используется большее количество более сложных шейдеров, поэтому преимущество GeForce 8800 GTX выражено ярче, нежели в группе SM2.0. AMD Radeon X1950 XTX также смотрится более выигрышно в случае активного использования Shader Model 3.0 и HDR, а GeForce 7950 GX2, напротив, в тестах SM2.0.




После включения FSAA GeForce 8800 GTS 320MB действительно начинает проигрывать GeForce 8800 GTS 640MB в разрешении 1600х1200, а в 1920х1200 новое решение Nvidia вообще не может пройти тесты из-за нехватки видеопамяти. Проигрыш близок к двукратному как в первом, так и во втором тесте SM2.0, несмотря на то, что по построению графических сцен они весьма отличаются.






В первом тесте SM3.0/HDR влияние объема видеопамяти на производительность отчетливо видно уже в разрешении 1280х1024. Младшая модель GeForce 8800 GTS уступает старшей около 33%, затем, в разрешении 1600х1200 отставание увеличивается до почти 50%. Второй тест, с гораздо менее сложной и масштабной сценой, не столь требователен объему видеопамяти, и здесь отставание составляет 5% и около 20%, соответственно.

Заключение

Время подведить итоги. Мы протестировали две модели Nvidia GeForce 8800 GTS, одна из которых является прямым конкурентом AMD Radeon X1950 XTX, а другая предназначена для сектора производительных массовых карт стоимостью $299. Что же мы можем сказать, располагая результатами игровых тестов?

Старшая модель, имеющая официальную стоимость $449, показала себя с хорошей стороны, если говорить о производительности. В большинстве тестов GeForce 8800 GTS опередил AMD Radeon X1950 XTX и лишь в отдельных случаях показал равную производительность с решением AMD и отставание от двухпроцессорного тандема GeForce 7950 GX2. Впрочем, учитывая исключительно высокую производительность GeForce 8800 GTS 640MB, мы не стали бы однозначно сравнивать его с продуктами предыдущего поколения: они не поддерживают DirectX 10, при этом у GeForce 7950 GX2 значительно худшее качество анизотропной фильтрации, и потенциальные проблемы, вызванные несовместимостью той или иной игры с технологией Nvidia SLI.

GeForce 8800 GTS 640MB можно уверенно назвать лучшим решением в ценовом диапазоне $449-$499. Однако, стоит отметить, что новое поколение продуктов Nvidia всё еще не вылечилось от детских болезней: в Call of Juarez всё еще наблюдаются мерцающие тени, а Splinter Cell: Double Agent , хотя и работает, но требует особого запуска на драйверах версии 97.94. По крайней мере, до появления на рынке карт на базе графического процессора AMD нового поколения у GeForce 8800 GTS есть все шансы занять подобающее ему место "лучшего ускорителя стоимостью $449". Тем не менее, перед приобретением GeForce 8800 GTS мы бы рекомендовали прояснить вопрос совместимости нового семейства Nvidia с вашими любимыми играми.

Новая GeForce 8800 GTS 320MB за $299 также является весьма неплохим приобретением за свои деньги: поддержка DirectX 10, высококачественной анизотропной фильтрации и не неплохой уровень производительности в типичных разрешениях – лишь некоторые преимущества новинки. Таким образом, если вы планируете играть в разрешениях 1280х1024 или же 1600х1200, GeForce 8800 GTS 320MB является отличным выбором.

К сожалению, весьма перспективная с технической точки зрения карта, отличающаяся от более дорогой версии только объемом видеопамяти, порой серьезно уступает GeForce 8800 GTS 640MB не только в играх с высокими требованиями к объему видеопамяти, таких, как Serious Sam 2 , но и там, где ранее разница в производительности карт с 512 и 256 МБ памяти не фиксировалась. В частности, к таким играм относятся TES IV: Oblivion, Neverwinter Nights 2, F.E.A.R. Extraction Point и некоторые другие. С учетом того, что 320 МБ видеопамяти однозначно больше, нежели 256 МБ, проблема явно связана с ее неэффективным распределением, но, к сожалению, мы не знаем, обусловлено ли оно недоработками в драйверах или чем-либо еще. Тем не менее, даже с учетом вышеописанных недостатков, GeForce 8800 GTS 320MB выглядит значительно привлекательнее GeForce 7950 GT и Radeon X1950 XT, хотя последние с появлением этого видеоадаптера неизбежно будут терять в цене.

Что касается MSI NX8800GTS-T2D640E-HD-OC, то перед нами продукт с хорошей комплектацией, отличающийся от референсной карты Nvidia не только упаковкой, аксессуарами и наклейкой на кулере. Видеоадаптер разогнан производителем и в большинстве игр обеспечивает заметный прирост производительности по сравнению со стандартным GeForce 8800 GTS 640MB. Конечно, до уровня GeForce 8800 GTX ему не дотянуться, но дополнительные fps никогда не бывают лишними. По всей видимости, эти карты проходят тщательный отбор на способность работать на повышенных частотах; по крайней мере, наш экземпляр показал достаточно хорошие результаты в области разгона и не исключено, что большинство экземпляров NX8800GTS OC Edition способны неплохо разгоняться сверх того, что уже сделано производителем.

Отдельной похвалы заслуживает наличие в комплекте двухдискового издания Company of Heroes, считаемой многими игровыми обозревателями лучшей стратегической игрой года. Если вы всерьез нацелены на покупку GeForce 8800 GTS, то данный продукт MSI имеет все шансы стать вашим выбором.

MSI NX8800GTS-T2D640E-HD-OC: достоинства и недостатки

Достоинства:

Повышенный уровень производительности в сравнении с эталонным GeForce 8800 GTS
Высокий уровень производительности в высоких разрешениях при использовании FSAA





Низкий уровень шума
Хороший разгонный потенциал
Хорошая комплектация

Недостатки:

Недостаточно отлаженные драйверы

GeForce 8800 GTS 320MB: достоинства и недостатки

Достоинства:

Высокий уровень производительности в своем классе
Поддержка новых режимов и методов сглаживания
Великолепное качество анизотропной фильтрации
Унифицированная архитектура с 96 шейдерными процессорами
Задел на будущее: поддержка DirectX 10 и Shader Model 4.0
Эффективная система охлаждения
Низкий уровень шума

Недостатки:

Недостаточно отлаженные драйверы (проблема с распределением видеопамяти, низкая производительность в некоторых играх и/или режимах)
Высокий уровень энергопотребления

В нашем прошлом материале мы взглянули на то, что происходит в нижнем ценовом диапазоне, в котором не так давно появились новинки от AMD — серии Radeon HD 3400 и HD 3600. Сегодня мы несколько поднимем наш взор в иерархии карт и поговорим о старших моделях. Героем нашего обзора на этот раз станет GeForce 8800 GTS 512 МБ .

Что же собой представляет GeForce 8800 GTS 512 МБ? Название, прямо скажем, не дает однозначного ответа. С одной стороны, это каким-то образом напоминает прошлые топовые решения на чипе G80. С другой стороны, объем памяти — 512 МБ, т. е. меньше, чем у соответствующих предшественников. В результате, выходит, что индекс GTS вкупе с числом 512 просто-напросто вводит в заблуждение потенциального покупателя. А ведь на самом деле речь идет, если не о самом быстром, то, в любом случае, одном из самых быстрых графических решений, представленных на данный момент компанией NVIDIA. И основана данная карта вовсе не на уходящем в прошлое G80, а на куда более прогрессивном G92, на котором, кстати, базировалась GeForce 8800 GT. Чтобы внести еще большую ясность в описание сущности GeForce 8800 GTS 512 МБ, перейдем непосредственно к характеристикам.

Сравнительные характеристики GeForce 8800 GTS 512 МБ

Модель Radeon HD 3870 GeForce 8800 GT GeForce 8800 GTS 640 МБ GeForce 8800 GTS 512 МБ GeForce 8800 GTX
Кодовое название ядра RV670 G92 G80 G92 G80
Тех. процесс, нм 65 65 90 65 90
Количество потоковых процессоров 320 112 96 128 128
Количество текстурных блоков 16 56 24 64 32
Количество блоков блендинга 16 16 20 16 24
Частота ядра, МГц 775 600 513 650 575
Частота шейдерного блока, МГц 775 1500 1180 1625 1350
Эффективная частота видеопамяти, МГц 2250 1800 1600 1940 1800
Объем видеопамяти, МБ 512 256 / 512 / 1024 320 / 640 512 768
Разрядность шины обмена данных, Бит 256 256 320 256 384
Тип видеопамяти GDDR3 / GDDR4 GDDR3 GDDR3 GDDR3 GDDR3
Интерфейс PCI-Express 2.0 PCI-Express 2.0 PCI-Express PCI-Express 2.0 PCI-Express

Взглянем на приведенную выше таблицу. На основе этих данных мы можем сделать вывод, что перед нами вполне оформленное и крепкое решение, способное наравне тягаться с текущими топами калифорнийской компании. По сути, мы имеем полноценный чип G92 с поднятыми частотами и очень быструю GDDR3 память, работающую почти на 2 ГГц. Кстати, о том, что в изначальном варианте G92 должен был иметь именно 128 потоковых процессоров и 64 текстурных блока мы говорили еще в обзоре GeForce 8800 GT. Как видите, для модели с индексом GT не просто так был выделен несколько урезанный чип. Данный ход позволил несколько разграничить сегмент производительных видеокарт и создать в нем еще более совершенный продукт. Тем более, что именно сейчас производство G92 уже прекрасно налажено и число чипов, способных работать на частотах более 600 МГц довольно велико. Впрочем, даже в первых ревизиях G92 довольно легко покорял 700 МГц. Сами понимаете, что теперь этот рубеж не является пределом. В этом мы еще успеем убедиться по ходу материала.

Итак, перед нами продукт компании XFX — видеокарта GeForce 8800 GTS 512 МБ. Именно данная модель и станет сегодня объектом нашего пристального изучения.

Наконец, перед нами сама плата. Основой для продукта XFX служит референс-дизайн, поэтому все, что будет сказано относительно данного продукта, можно отнести и к большинству решений других компаний. Ведь не для кого ни секрет, что на сегодняшний день подавляющее число производителей базируют дизайн своей продукции именно на том, что предлагает NVIDIA.

В отношении GeForce 8800 GTS 512 МБ нельзя не заметить, что печатная плата позаимствована у GeForce 8800 GT. Она значительно упрощена относительно видеокарт на G80, однако полностью отвечает требованиям новой архитектуры. В результате, можно сделать вывод, что выпуск GeForce 8800 GTS 512 МБ вряд ли был чем-то осложнен. Мы имеем ту же PCB и почти тот же чип, что и у предшественницы с индексом GT.

Что касается размеров рассматриваемой видеокарты, то в этом плане она полностью соответствует GeForce 8800 GTS 640 МБ. В чем вы можете убедиться сами на основе приведенного фото.

NVIDIA сочла нужным внести изменения в системе охлаждения. Она претерпела серьезные изменения и теперь напоминает своим видом все-таки кулер классической GeForce 8800 GTS 640 МБ, нежели GeForce 8800 GT.

Конструктив кулера достаточно прост. Он состоит из алюминиевого оребрения, продувом которой занимается соответствующая турбина. Пластины радиатора пронизывают медные тепловые трубки диаметром 6 мм каждая. Контакт с чипом осуществляется посредством медной подошвы. Тепло снимается с основания и переносится на радиатор, где и впоследствии рассеивается.

Наш экземпляр GeForce 8800 GTS был оснащен чипом G92 ревизии А2, выпущенным на Тайване. Память набрана 8-ю чипами производства Qimonda со временем выборки 1.0 нс.

Наконец, мы вставили видеокарту в слот PCI-E. Плата без проблем определилась и позволила установить драйвера. Не возникло трудностей и в отношении вспомогательного софта. GPU-Z вполне корректно выводил всю необходимую информацию.

Частота GPU составляет 678 МГц, памяти — 1970 МГц, шейдерного домена — 1700 МГц. В результате, мы вновь видим, что XFX не изменяет себе в привычке, поднимать частоты выше заводских. Правда, на этот раз прибавка невелика. Но обычно в ассортименте компании достаточно много карт одной серии, различающихся частотами. Некоторые из них, наверняка, имеют большие показатели.

Riva Tuner также нас не подвел и вывел всю информацию на мониторинге.

После этого мы решили проверить, насколько хорошо справляется со своей задачей штатный кулер. У GeForce 8800 GT с этим были серьезные проблемы. Система охлаждения имела довольно сомнительный запас эффективности. Этого, конечно, хватало для того, чтобы использовать плату в номинале, но для большего требовалась замена кулера.

Однако у GeForce 8800 GTS с этим все в порядке. После продолжительной нагрузки температура поднялась лишь до 61 °C. Это отличный результат для столь производительного решения. Впрочем, в каждой бочке меда есть своя ложка дегтя. Не обошлось и здесь без этого. К сожалению, система охлаждения жутко шумит. Причем, шум становится довольно неприятным уже при 55 °C, что нас даже удивило. Ведь чип почти не нагрелся. С какой стати турбина начинает интенсивно работать?

Тут нам на помощь пришел Riva Tuner. Данная утилита полезна не только тем, что позволяет разгонять и настраивать работу видеокарты, но и имеет функции управления оборотами кулера, если, конечно, плата сама имеет поддержку этой опции.

Мы решили выставить обороты на 48 % — это абсолютно тихая работа карты, когда вы можете полностью забыть о её шуме.

Однако подобные корректировки привели к увеличению температуры. На этот раз она составила 75 °C. Конечно, температура немного высоковата, но, на наш взгляд, это стоит того, чтобы избавиться от воя турбины.

Впрочем, на этом мы не остановились. Мы решили проверить, как поведет себя видеокарта при установке какой-либо альтернативной системы охлаждения.

Выбор пал на Thermaltake DuOrb — эффективную и стильную систему охлаждения, которая в свое время неплохо справилась с охлаждением GeForce 8800 GTX.

Температура упала на 1 °C относительно штатного кулера, работающего на автоматических оборотах (в нагрузке обороты автоматически увеличивались до 78 %). Что же, конечно, разница в эффективности ничтожна мала. Однако уровень шума также стал существенно меньше. Правда, бесшумным Thermaltake DuOrb тоже не назовешь.

В итоге, новый штатный кулер от NVIDIA оставляет лишь благоприятные впечатления. Он очень эффективен и, кроме того, позволяет выставлять любой уровень оборотов, что подойдет любителям тишины. Тем более, что даже в этом случае он хотя и хуже, но справляется с поставленной задачей.

Наконец, упомянем о разгонном потенциале. Он, кстати, как оказалось, одинаков, что для штатного кулера, что для DuOrb. Ядро удалось разогнать до 805 МГц, шейдерный домен до 1944 МГц, а память до 2200 МГц. Не может не радовать, что топовое решение, которое изначально обладает высокими частотами, имеет еще солидный запас, причем это касается как чипа, так и памяти.

Итак, мы рассмотрели видеокарту GeForce 8800 GTS 512 МБ производства XFX. Мы могли бы на этом моменте плавно перейти к тестовой части, однако мы решили рассказать об еще одном интересном решении, на этот раз из стана ATI, производства PowerColor.

Основная особенность данной видеокарты — память DDR3. Напомню вам, что большинство компаний выпускают Radeon HD 3870 с DDR4. Таким же типом памяти был оснащен и референс-вариант. Однако компания PowerColor достаточно часто избирает нестандартные пути и наделяет свою продукцию отличными от остальных особенностями.

Впрочем, другой тип памяти — не единственное отличие платы PowerColor от сторонних решений. Дело в том, что компания также решила оснастить видеокарту не стандартной турбиной, кстати, довольной эффективной, а еще более производительным продуктом от ZeroTherm — кулером GX810.

PCB упрощено. По большей части это коснулось системы питания. В этой области должно присутствовать четыре керамических конденсатора. Причем на большинстве плат они расположены подряд, вплотную друг к другу. На плате от PowerColor их осталось три штуки — два из них располагаются там, где и должны, и еще один вынесен к верхней части.

Несколько сглаживает впечатление от таких особенностей присутствие алюминиевого радиатора на цепях питания. Во время нагрузки они способны серьезно нагреваться, так что охлаждение будет не лишним.

Чипы памяти закрыты медной пластиной. На первый взгляд, это может порадовать, ведь это элемент, способный снизить температуру при нагреве памяти. Однако в действительно все обстоит не совсем так. Во-первых, пластину на данном экземпляре карты снять не удалось. По всей видимости, она крепко держится на термоклее. Возможно, если приложить усилия, то радиатор можно удалить, но мы усердствовать не стали. Поэтому о том, какая память установлена на карту, мы так и не узнали.

Второе, за что нельзя похвалить PowerColor, — это то, что кулер имеет конструкцию, способную направлять воздух на PCB, тем самым, снижая её температуру. Однако пластина этому обдуву частично препятствует. Нельзя сказать, что она совсем мешает. Но любые радиаторы на памяти были бы гораздо лучше вариантом. Или, по крайне мере, не стоит использовать термоинтерфейс, после которого пластину не возможно снять.

Не обошлось без проблем и самим кулером. Да, конечно, ZeroTherm GX810 — хороший кулер. Его эффективность находится на отличном уровне. Этому во многом способствует полностью медная чаша в качестве радиатора с длинной медной трубкой, пронизывающие все пластины. Но вот проблема в том, что на плате распаян 2-ух пинный коннектор. В результате кулер всегда работает в одном режиме, а именно — максимальном. С самого момента включения компьютера вентилятор кулера работает на предельных оборотах, создавая очень серьезный шум. С этим еще можно было бы смириться, относись это исключительно к 3D, все-таки мы были знакомы с более шумными Radeon X1800 и X1900, но вот когда кулер так шумит в 2D… Это не может не вызывать раздражения.

Радует лишь, что проблема эта решаемая. Ведь вы можете использовать регулятор оборотов. Мы, например, так и сделали. На минимальных оборотах кулер бесшумный, только вот эффективность сразу серьезно падает. Есть и другой вариант — сменить охлаждение. Его мы тоже пробовали. Для этого мы взяли все тот же Thermaltake DuOrb и обнаружили, что установка не возможна.

С одной стороны, монтажные отверстия подходят, только вот крупные конденсаторы на PCB препятствуют крепежу. В результате, осмотр платы мы завершаем на довольно негативной ноте. Перейдем к тому, как ведет себя видеокарта, когда установлена в компьютер.

Частота ядра составляет 775 МГц, что соответствует референсу. А вот частота памяти гораздо ниже традиционной значения — лишь 1800 МГц. Однако тут не стоит особо удивляться. Мы имеем дело с DDR3. Так что это вполне адекватный показатель. Кроме того, имейте ввиду, что DDR4 имеет значительно большие задержки. Таким образом, конечная производительность будет примерно на одном уровне. Разница будет проявляться лишь в приложениях, требовательных к пропускной способности.

Кстати, я обратил бы ваше внимание на то, что плата имеет БИОС 10.065. Это достаточно старая прошивка и в ней, наверняка, присутствует ошибка PLL VCO. В результате, вы не сможете разогнать вашу карту выше 862 МГц. Однако исправить это довольно просто. Для этого достаточно обновить БИОС.

Riva Tuner без проблем вывел всю необходимую информацию о частотах и температуре.

Температуре в нагрузке составила 55 °C, т. е. карта почти не нагрелась. Возникает лишь вопрос: если есть такой запас по эффективности, зачем использовать исключительно максимальные обороты для кулера?

Теперь о разгоне. В общем-то, не секрет, что частотный запас RV670 довольно мал, однако у нашего экземпляра она оказался ужасно мал. Нам удалось поднять частоту лишь на 8 МГц, т. е. до 783 МГц. Память показала более выдающиеся результаты — 2160 МГц. Отсюда можно сделать вывод, что на карте, скорее всего, используется память со временем выборки 1.0 нс.

Исследование производительности видеокарт

Список участников тестирования вы можете увидеть ниже:

  • GeForce 8800 GTS 512 МБ (650/1625/1940);
  • GeForce 8800 GTS 640 МБ (513/1180/1600);
  • Radeon HD 3870 DDR3 512 МБ (775/1800);
  • Radeon HD 3850 512 МБ (670/1650).

Тестовый стенд

Для выяснения уровня производительности видеокарт, рассмотренных выше, нами была собрана тестовая система нижеследующей конфигурации:

  • Процессор — Core 2 Duo E6550 (333?7, L2=4096 КБ) @ (456?7 = 3192 МГц);
  • Система охлаждения — Xigmatek HDT-S1283;
  • Термоинтерфейс — Arctic Cooling MX-2;
  • Оперативная память — Corsair TWIN2в6400С4-2048;
  • Материнская плата — Asus P5B Deluxe (Bios 1206);
  • Блок питания — Silverstone DA850 (850 Вт);
  • Жесткий диск — Serial-ATA Western Digital 500 ГБ, 7200 rpm;
  • Операционная система — Windows XP Service Pack 2;
  • Видеодрайвер — Forceware 169.21 для видеокарт NVIDIA, Catalyst 8.3 для плат AMD;
  • Монитор — Benq FP91GP.

Используемые драйверы

Драйвер ATI Catalyst был сконфигурирован следующим образом:

  • Catalyst A.I.: Standart;
  • MipMap Detail Level: High Quality;
  • Wait for vertical refresh: Always off;
  • Adaptive antialiasing: Off;
  • Temporal antialiasing: Off;

Драйвер ForceWare, в свою очередь, использовался при следующих настройках:

  • Texture Filtering: High quality;
  • Anisotropic sample optimization: Off;
  • Trilinear optimization: Off;
  • Threaded optimization: On;
  • Gamma correct antialiasing: On;
  • Transparency antialiasing: Off;
  • Vertical sync: Force off;
  • Остальные настройки: по умолчанию.

Используемые тестовые пакеты:

  • Doom, Build 1.1 — тестирование в утилите BenchemAll. Для теста на одном из уровней игры нами было записано демо;
  • Prey, Build 1.3 — тестирование через HOC Benchmark, демо HWzone. Boost Graphics выключен . Качество изображения Highest . Двукратный прогон демо;
  • F.E.A.R., Build 1.0.8 — тестирование через встроенный бенчмарк. Soft Shadows выключено ;
  • Need For Speed Carbon, Build 1.4 — максимальные настройки качества. Motion Blur отключен . Тестирование проходило посредством Fraps;
  • TimeShift, build 1.2 — детализация форсировалась в двух вариантах: High Detail и Very High Detail. Тестирование проходило посредством Fraps;
  • Unreal Tournament 3, build 1.2 — максимальные настройки качества. Прогон демо на уровне VCTF?Suspense;
  • World In Conflict, build 1.007 — использовалось два варианта настроек: Medium и High. Во втором случае отключались фильтры качества (анизотропная фильтрация и сглаживание). Тестирование проходило с помощью встроенного бенчмарка;
  • Crysis, build 1.2 — тестирование в режимах Medium и High. Тестирование проходило посредством Fraps.

* После названия игры указан build, т. е. версия игры. Мы стараемся добиться максимальной объективности теста, поэтому используем игры только с последними патчами.

Результаты тестирования