Обзор видеокарты ASUS EN8800GTS. Обзор видеокарты ASUS EN8800GTS Geforce 8800 gts технические характеристики

Производители уже давно практикуют выпуск удешевленных решений на базе графических процессоров верхнего ценового сегмента. Благодаря подобному подходу существенно увеличивается вариация готовых решений, снижается их стоимость, а большинство пользователей зачастую отдают предпочтение продуктам с наиболее выгодным соотношением «цена/быстродействие».
Подобным образом компания NVIDIA поступила и с новейшим чипом G80, первым в мире графическим процессором, являющимся носителем унифицированной архитектуры и обладающим поддержкой нового API от Microsoft – DirectX 10.
Одновременно с флагманской видеокартой GeForce 8800 GTX вышла и более дешевая версия, именуемая GeForce 8800 GTS. От старшей сестры её отличает урезанное количество пиксельных процессоров (96 против 128), видеопамяти (640 МБ вместо 768 МБ у GTX). Следствием уменьшения количества чипов памяти стало уменьшение разрядности ее интерфейса до 320 бит (у GTX - 384 бит). С более детальными характеристиками рассматриваемого графического адаптера можно ознакомиться, изучив таблицу:

В нашу Тестовую лабораторию попала видеокарта ASUS EN8800GTS, которую мы сегодня и рассмотрим. Данный производитель является одним из крупнейших и наиболее успешных партнеров NVIDIA, и традиционно не скупится на оформление упаковки и комплектацию. Как говорится, «хорошей видеокарты должно быть много». Новинка поставляется в коробке внушительных размеров:


На лицевой ее стороне красуется персонаж из игры Ghost Recon: Advanced Warfighter. Одним изображением дело не ограничивается, - сама игра, как Вы уже догадались, идет в комплекте. На обратной стороне упаковки приведены краткие характеристики продукта:


В ASUS посчитали это количество информации недостаточным, сделав из коробки некое подобие книги:


Справедливости ради отметим, что этот метод практикуется уже довольно давно и, отнюдь, не только ASUS. Но, как говориться, всё хорошо в меру. Максимальная информативность обернулась практическим неудобством. Небольшое дуновение ветра - и верхняя часть обложки открывается. При транспортировке героя сегодняшнего обзора нам пришлось ухищряться и подгибать удерживающий язычок так, что бы он оправдывал своё предназначение. К сожалению, подогнув его, легко повредить упаковку. Ну и напоследок добавим, что размеры коробки неоправданно велики, что вызывает некоторые неудобства.

Видеоадаптер: комплектация и близкий осмотр

Что же, перейдем непосредственно к комплектации и самой видеокарте. Адаптер упакован в антистатический пакет и пенопластовую емкость, что исключает как электрическое, так и механическое повреждение платы. В коробке находятся диски, переходники «DVI -> D-Sub», шнуры VIVO и дополнительного питания, а так же футляр для дисков.


Из дисков, входящих в комплект, примечательна игра GTI racing и бенчмарк 3DMark06 Advanced Edition! Первый раз в комплекте серийной и причем массовой видеокарты замечен 3DMark06! Без сомнения, этот факт придется по вкусу пользователям, активно занимающимся бенчмаркингом.


Что же, переходим непосредственно к видеокарте. Она выполнена на базе печатной платы эталонного дизайна с применением референсной системы охлаждения, и от других подобных продуктов её отличает лишь наклейка с логотипом производителя, на которой сохраняется тематика Ghost Recon.


Обратная сторона печатной платы также ничем не примечательна – на ней распаяно множество smd-компонентов и регуляторы стабилизаторов напряжений, только и всего:


В отличие от GeForce 8800 GTX, для GTS требуется лишь один разъем дополнительного питания:


Помимо этого, она короче старшей сестры, что наверняка придется по вкусу обладателям небольших корпусов. В плане охлаждения отличий нет, и ASUS EN8800GTS, как и GF 8800 GTX, использует кулер с большим вентилятором турбинного типа. Радиатор выполнен из медного основания и алюминиевого кожуха. Теплопередача от основания к ребрам осуществляется отчасти по тепловым трубкам, что увеличивает общую эффективность конструкции. Горячий воздух выбрасывается за пределы системного блока, однако часть его, увы, остается внутри ПК благодаря некоторым отверстиям в кожухе системы охлаждения.


Впрочем, проблема сильного нагреве легко решается. Например, весьма неплохо улучшает температурный режим платы обдув тихоходным 120-миллиметровым вентилятором.
Помимо графического процессора, кулер охлаждает чипы памяти и элементы подсистемы питания, а так же ЦАП видеосигнала (чип NVIO).


Последний был вынесен за пределы основного процессора по причине высоких частот последнего, что вызывало наводки и, как следствие, помехи в работе.
К сожалению, это обстоятельство вызовет трудности при смене кулера, поэтому инженеры NVIDIA просто не имели права сделать его некачественным. Посмотрим на видеокарту в «голом» виде.


На PCB распаяны чип G80 ревизии A2, 640 МБ видеопамяти, набранной десятью чипами производства Samsung. Время выборки памяти составляет 1,2 нс, что немного выше, чем у GeForce 8800 GTX.


Обратите внимание, на плате есть два посадочных места под чипы. Будь они распаяны на PCB, суммарный объем памяти составил бы 768 МБ, а ее разрядность - 384 бит. Увы, разработчик видеокарты посчитал подобный шаг лишним. Такая схема применяется только в профессиональных видеокартах серии Quadro.
Напоследок отметим, что у карты только один разъем SLI, в отличие от GF 8800 GTX, у которой их два.

Тестирование, анализ результатов

Испытания видеокарты ASUS EN8800GTS проходили на тестовом стенде следующей конфигурации:
  • процессор - AMD Athlon 64 [email protected]МГц (Venice);
  • материнская плата - ASUS A8N-SLI Deluxe, чипсет NVIDIA nForce 4 SLI;
  • оперативная память - 2х512Мб [email protected]МГц, тайминги 3.0-4-4-9-1T.
Тестирование проводилось в операционной системе Windows XP SP2, установлен драйвер чипсета версии 6.86.
Утилита RivaTuner подтвердила соответствие характеристик видеокарты заявленным:


Частоты видеопроцессора составляют 510/1190 МГц, памяти - 1600 МГц. Максимальный нагрев, достигнутый после многократного прогона теста Canyon Flight из пакета 3DMark06, составил 76 °С при скорости вращения вентилятора штатной системы охлаждения, равной 1360 об/мин:


Для сравнения скажу, что в тех же условиях попавшая под руку GeForce 6800 Ultra AGP нагревалась до 85 °C при максимальной скорости вентилятора, а после длительной работы вообще зависала.

Производительность нового видеоадаптера проверялась с помощью популярных синтетических бенчмарков и некоторых игровых приложений.

Тестирование приложениями разработки Futuremark выявило следующее:


Конечно, на системе с более мощным центральным процессором, например, представителем архитектуры Intel Core 2 Duo, результат был бы лучше. В нашем случае морально устаревший Athlon 64 (пусть даже и разогнанный) не позволяет полностью раскрыть потенциал топовых видеокарт современности.

Перейдем к тестированию в реальных игровых приложениях.


В Need for Speed Carbon отчетливо видна разница между соперниками, и GeForce 7900 GTX отстает от карт поколения 8800 более чем ощутимо.


Поскольку для комфортной игры в Half Life 2 требуется не только мощная видеокарта, но и быстрый процессор, отчетливая разница в производительности наблюдается только в максимальных разрешениях с активированными анизотропной фильтрацией и полноэкранным сглаживанием.


В F.E.A.R. наблюдается примерно такая же картина, как и в HL2.


В тяжелых режимах игры Doom 3 рассматриваемая карта проявила себя очень неплохо, но сполна оценить отставание GeForce 8800 GTS от старшей сестры не позволяет все тот же слабый центральный процессор.


Поскольку Pray сделан на движке Quake 4, который в свою очередь является развитием Doom3, результаты производительности видеокарт в данных играх схожи.
Прогрессивность новой унифицированной шейдерной архитектуры и некоторое "урезание" возможностей относительно старшей сестры поставили GeForce 8800 GTS между самым быстрым графическим адаптером от NVIDIA на сегодня и флагманом семитысячной линейки. Впрочем, вряд ли калифорнийцы поступили бы иначе, - новинка такого класса должна быть мощнее предшественников. Радует, что GeForce 8800 GTS по скоростным возможностям находится гораздо ближе к GeForce 8800 GTХ, нежели к 7900 GTX. Оптимизм вселяет и поддержка самых новых графических технологий, которая должна оставить владельцам подобных адаптеров неплохой запас производительности на ближайшее (и, надеемся, более отдаленное) будущее.

Вердикт

После исследования карты у нас остались исключительно хорошие впечатления, которые намного улучшил фактор стоимости продукта. Так, в момент появления на рынке и некоторое время спустя ASUS EN8800GTS по данным price.ru стоила порядка 16000 руб, - ее цена была явно завышена. Теперь же карта длительный период продается примерно за 11500 руб, что не превышает стоимости аналогичных продуктов от конкурентов. Однако, учитывая комплектацию, детище ASUS, несомненно, находится в выигрышном положении.

Плюсы :

  • поддержка DirectX 10;
  • усиленная структура чипа (унифицированная архитектура);
  • отменный уровень производительности;
  • богатая комплектация;
  • именитый бренд;
  • цена находится на уровне продуктов от менее авторитетных конкурентов
Минусы :
  • не всегда удобная большая коробка
Благодарим Российское представительство компании ASUS за предоставленную на тестирование видеокарту.

Отзывы, пожелания и замечания по данному материалу принимаются в форума сайт .

Снова 128 более сильных калифорнийских стрелков, но с урезанными копьями (512MB и 256bit)

Часть 1: Теория и архитектура

В прошлом материале, посвященном выходу нового решения среднего уровня Nvidia Geforce 8800 GT, основанного на чипе G92, мы упоминали о том, что в этом решении применен чип, в котором разблокированы не все исполнительные блоки ALU и TMU, часть из них дожидается своего часа, чтобы быть включенной в видеокарте другого ценового уровня. И вот этот момент настал, Nvidia анонсировала обновленный вариант Geforce 8800 GTS, оставивший такое же название, что и младшее решение на основе G80. Отличить его проще всего по объему установленной видеопамяти, он равен 512 мегабайтам, в отличие от предыдущих 320 Мбайт и 640 Мбайт вариантов. Так эту модель и назвали — Geforce 8800 GTS 512MB.

Новый вариант Geforce 8800 GTS основан на чипе G92, уже применённом ранее в Geforce 8800 GT, видеокарте так называемого верхнего среднего ценового уровня, поэтому основные возможности и характеристики мы уже знаем. В отличие от двух моделей Geforce 8800 GT с рекомендуемой ценой от $200 до $250 (что с реальными ценами на данный момент плохо соотносится, кстати), новое решение имеет рекомендованную производителем цену в $349-399. Особенностями применяемого видеочипа является поддержка лишь 256-битной шины памяти, но большее количество разблокированных универсальных исполнительных блоков. Давайте познакомимся с новым нижним high-end решением от компании Nvidia поближе…

Перед прочтением данного материала мы рекомендуем внимательно ознакомиться с базовыми теоретическими материалами DX Current, DX Next и Longhorn, описывающими различные аспекты современных аппаратных ускорителей графики и архитектурные особенности продукции Nvidia и AMD.

Эти материалы достаточно точно спрогнозировали текущую ситуацию с архитектурами видеочипов, оправдались многие предположения о будущих решениях. Подробную информацию об унифицированной архитектуре Nvidia G8x/G9x на примере предыдущих чипов можно найти в следующих статьях:

Как мы упоминали в предыдущем материале, чип G92 включает в себя все преимущества G8x: унифицированную шейдерную архитектуру, полную поддержку DirectX 10, качественные методы анизотропной фильтрации и алгоритм антиалиасинга CSAA с количеством сэмплов до шестнадцати включительно. Некоторые блоки чипа немного отличаются от тех, что были в G80, но основным изменением по сравнению с G80 стала технология производства 65 нм, которая позволила снизить себестоимость продукции. Рассмотрим характеристики GPU и новых видеорешений на его основе:

Графический ускоритель Geforce 8800 GTS 512MB

  • Кодовое имя чипа G92
  • Технология 65 нм
  • 754 миллиона транзисторов (больше, чем у G80)
  • Унифицированная архитектура с массивом общих процессоров для потоковой обработки вершин и пикселей, а также других видов данных
  • Аппаратная поддержка DirectX 10, в том числе шейдерной модели — Shader Model 4.0, генерации геометрии и записи промежуточных данных из шейдеров (stream output)
  • 256-бит шина памяти, четыре независимых контроллера шириной по 64 бита
  • Частота ядра 650 МГц (Geforce 8800 GTS 512MB)
  • ALU работают на более чем удвоенной частоте (1.625 ГГц для Geforce 8800 GTS 512MB)
  • 128 скалярных ALU с плавающей точкой (целочисленные и плавающие форматы, поддержка FP 32-бит точности в рамках стандарта IEEE 754, MAD+MUL без потери тактов)
  • 64 блока текстурной адресации с поддержкой FP16 и FP32 компонент в текстурах
  • 64 блока билинейной фильтрации (как и в G84 и G86, нет бесплатной трилинейной фильтрации и более эффективной анизотропной фильтрации)
  • Возможность динамических ветвлений в пиксельных и вершинных шейдерах
  • 4 широких блока ROP (16 пикселей) с поддержкой режимов антиалиасинга до 16 сэмплов на пиксель, в том числе при FP16 или FP32 формате буфера кадра. Каждый блок состоит из массива гибко конфигурируемых ALU и отвечает за генерацию и сравнение Z, MSAA, блендинг. Пиковая производительность всей подсистемы до 64 MSAA отсчетов (+ 64 Z) за такт, в режиме без цвета (Z only) — 128 отсчета за такт
  • Запись результатов до 8 буферов кадра одновременно (MRT)
  • Все интерфейсы (два RAMDAC, два Dual DVI, HDMI, HDTV) интегрированы на чип (в отличие от вынесенных на внешний дополнительный чип NVIO у Geforce 8800)

Спецификации референсной карты Geforce 8800 GTS 512MB

  • Частота ядра 650 МГц
  • Частота универсальных процессоров 1625 МГц
  • Количество универсальных процессоров 128
  • Количество текстурных блоков — 64, блоков блендинга — 16
  • Эффективная частота памяти 1.94 ГГц (2*970 МГц)
  • Тип памяти GDDR3
  • Объем памяти 512 мегабайт
  • Пропускная способность памяти 64.0 гигабайта в сек.
  • Теоретическая максимальная скорость закраски 10.4 гигапикселя в сек.
  • Теоретическая скорость выборки текстур до 41.6 гигатекселя в сек.
  • Два DVI-I Dual Link разъема, поддерживается вывод в разрешениях до 2560х1600
  • SLI разъем
  • Шина PCI Express 2.0
  • TV-Out, HDTV-Out, поддержка HDCP
  • Рекомендуемая цена $349-399

Как видно по характеристикам, новая версия Geforce 8800 GTS 512MB довольно сильно отличается от старых. Возросло количество исполнительных блоков: ALU и TMU, значительно выросла и частота GPU, включая частоту шейдерных блоков. Несмотря на урезанную шину памяти (256-бит против 320-бит у старых вариантов), пропускная способность памяти осталась прежней, так как её рабочую частоту подняли на соответствующее значение. В результате, новый GTS обладает значительно усиленной мощью по выполнению шейдеров, а также возросшей скоростью текстурных выборок. В то же время, филлрейт и ПСП остались такими же.

Из-за изменившейся разрядности шины памяти, объём последней теперь не может быть равен 320 Мбайт или 640 Мбайт, только 256 Мбайт, 512 Мбайт или 1 Гбайт. Первое значение слишком мало, его будет явно недостаточно для карты такого класса, а последнее — слишком велико, незначительный прирост производительности вряд ли будет оправдывать возросшую цену таких вариантов (которые вполне могут появиться в дальнейшем). Поэтому в Nvidia был выбран средний вариант с комплектацией карт объёмом в 512 Мбайт. Что, как показало наше недавнее исследование , является золотой серединой для всех современных игр, которые весьма требовательны к объёму видеопамяти и используют до 500-600 мегабайт. Не устаём повторять, что это не значит, что все ресурсы игр должны обязательно находиться только в локальной памяти видеокарты, менеджмент ресурсов может отдаваться в управление API, особенно в Direct3D 10 с виртуализацией видеопамяти.

Архитектура

Как было написано в предыдущем материале по Geforce 8800 GT, можно сказать, что G92 является предыдущим флагманом G80, переведенным на новый техпроцесс, но с некоторыми изменениями. Новый чип имеет 8 больших шейдерных блоков и 64 текстурных блока, а также четыре широких ROP. Несмотря на все изменения к лучшему, число транзисторов в чипе кажется слишком большим, вероятно, увеличенная сложность чипа объясняется включением в его состав ранее отдельного чипа NVIO, а также видеопроцессора нового поколения. Кроме того, на количество транзисторов повлияли усложненные блоки TMU, и есть вероятность увеличения кэшей для обеспечения большей эффективности 256-битной шины памяти.

Архитектурных изменений в чипе G92 совсем немного, обо всех мы рассказывали в предыдущем материале, и не будем делать это ещё раз. Всё сказанное в обзорах предыдущих решений остаётся в силе, приведём лишь основную диаграмму чипа G92, теперь уже со всеми 128 универсальными процессорами:

Из всех изменений в чипе, по сравнению с G80 — только уменьшенное количество блоков ROP и некоторые изменения в TMU, о которых написано в нашем предыдущем материале. Ещё раз остановимся на том, что 64 текстурных блока у Geforce 8800 GTS 512MB в реальных применениях в большинстве случаев НЕ будут сильнее 32 блоков в Geforce 8800 GTX. При включенной трилинейной и/или анизотропной фильтрации их производительность будет примерно одинакова, так как они имеют одинаковое количество блоков фильтрации текстурных данных. Конечно же, там, где применяются неотфильтрованные выборки, производительность решений на G92 будет выше.

PureVideo HD

Одним из ожидаемых изменений в G92 стал встроенный видеопроцессор второго поколения, известный по G84 и G86, получивший расширенную поддержку PureVideo HD. Этот вариант видеопроцессора почти полностью разгружает CPU при декодировании всех типов видеоданных, в том числе «тяжелых» форматов H.264 и VC-1. В G92 используется новая модель программируемого PureVideo HD видеопроцессора, включающая так называемый BSP движок. Новый процессор поддерживает декодирование H.264, VC-1 и MPEG-2 форматов с разрешением до 1920x1080 и битрейтом до 30-40 Мбит/с, выполняя работу по декодированию CABAC и CAVLC данных аппаратно, что позволяет воспроизводить все существующие HD-DVD и Blu-ray диски даже на средних по мощности одноядерных ПК. Декодирование VC-1 не такое эффективное, как H.264, но оно всё же поддерживается новым процессором. Подробнее о видеопроцессоре второго поколения можно прочитать в наших обзорах G84/G86 и G92, ссылки на которые приведены в начале статьи.

PCI Express 2.0

Из настоящих нововведений в G92 можно выделить поддержку шины PCI Express 2.0. Вторая версия PCI Express увеличивает стандартную пропускную способность в два раза, с 2.5 Гбит/с до 5 Гбит/с, в результате, по разъему x16 можно передавать данные на скорости до 8 ГБ/с в каждом направлении, в отличие от 4 ГБ/с для версии 1.x. При этом очень важно, что PCI Express 2.0 совместим с PCI Express 1.1, и старые видеокарты будут работать в новых системных платах, и новые видеокарты с поддержкой второй версии останутся работоспособными в платах без его поддержки. При условии достаточности внешнего питания и без увеличения пропускной способности интерфейса, естественно.

Реальное влияние большей пропускной способности шины PCI Express на производительность в своих материалах оценил основной конкурент компании Nvidia. По их данным, видеокарта среднего уровня с 256 мегабайтами локальной памяти ускоряется при переходе от PCI Express 1.0 к 2.0 в таких современных играх, как Company of Heroes, Call of Juarez, Lost Planet и World In Conflict примерно на 10%, показатели изменяются от 5% до 25% для разных игр и условий тестирования. Естественно, речь в высоких разрешениях, когда буфер кадра и сопутствующие буферы занимают большую часть локальной видеопамяти, а некоторые ресурсы хранятся в системной.

Для обеспечения обратной совместимости с существующими PCI Express 1.0 и 1.1 решениями, спецификация 2.0 поддерживает как 2.5 Гбит/с, так и 5 Гбит/с скорости передачи. Обратная совместимость PCI Express 2.0 позволяет использовать прошлые решения с 2.5 Гбит/с в 5.0 Гбит/с слотах, которые будут работать на меньшей скорости, а устройство, разработанное по спецификациям версии 2.0, может поддерживать и 2.5 Гбит/с и 5 Гбит/с скорости. В теории с совместимостью всё хорошо, а вот на практике с некоторыми сочетаниями системных плат и карт расширения возможно возникновение проблем.

Поддержка внешних интерфейсов

Тут всё как и у Geforce 8800 GT, никаких отличий нет. Имеющийся на платах Geforce 8800 дополнительный чип NVIO, поддерживающий вынесенные за пределы основного внешние интерфейсы (два 400 МГц RAMDAC, два Dual Link DVI (или LVDS), HDTV-Out), в данном случае был включен в состав самого чипа, поддержка всех указанных интерфейсов встроена в сам G92.

На видеокартах Geforce 8800 GTS 512MB обычно устанавливают два Dual Link DVI выхода с поддержкой HDCP. Что касается HDMI, поддержка этого разъема реализована, она может быть выполнена производителями на картах специального дизайна. Хотя наличие разъема HDMI на видеокарте совершенно необязательно, его с успехом заменит переходник с DVI на HDMI, который прилагается в комплекте большинства современных видеокарт.

В нашем прошлом материале мы взглянули на то, что происходит в нижнем ценовом диапазоне, в котором не так давно появились новинки от AMD — серии Radeon HD 3400 и HD 3600. Сегодня мы несколько поднимем наш взор в иерархии карт и поговорим о старших моделях. Героем нашего обзора на этот раз станет GeForce 8800 GTS 512 МБ .

Что же собой представляет GeForce 8800 GTS 512 МБ? Название, прямо скажем, не дает однозначного ответа. С одной стороны, это каким-то образом напоминает прошлые топовые решения на чипе G80. С другой стороны, объем памяти — 512 МБ, т. е. меньше, чем у соответствующих предшественников. В результате, выходит, что индекс GTS вкупе с числом 512 просто-напросто вводит в заблуждение потенциального покупателя. А ведь на самом деле речь идет, если не о самом быстром, то, в любом случае, одном из самых быстрых графических решений, представленных на данный момент компанией NVIDIA. И основана данная карта вовсе не на уходящем в прошлое G80, а на куда более прогрессивном G92, на котором, кстати, базировалась GeForce 8800 GT. Чтобы внести еще большую ясность в описание сущности GeForce 8800 GTS 512 МБ, перейдем непосредственно к характеристикам.

Сравнительные характеристики GeForce 8800 GTS 512 МБ

Модель Radeon HD 3870 GeForce 8800 GT GeForce 8800 GTS 640 МБ GeForce 8800 GTS 512 МБ GeForce 8800 GTX
Кодовое название ядра RV670 G92 G80 G92 G80
Тех. процесс, нм 65 65 90 65 90
Количество потоковых процессоров 320 112 96 128 128
Количество текстурных блоков 16 56 24 64 32
Количество блоков блендинга 16 16 20 16 24
Частота ядра, МГц 775 600 513 650 575
Частота шейдерного блока, МГц 775 1500 1180 1625 1350
Эффективная частота видеопамяти, МГц 2250 1800 1600 1940 1800
Объем видеопамяти, МБ 512 256 / 512 / 1024 320 / 640 512 768
Разрядность шины обмена данных, Бит 256 256 320 256 384
Тип видеопамяти GDDR3 / GDDR4 GDDR3 GDDR3 GDDR3 GDDR3
Интерфейс PCI-Express 2.0 PCI-Express 2.0 PCI-Express PCI-Express 2.0 PCI-Express

Взглянем на приведенную выше таблицу. На основе этих данных мы можем сделать вывод, что перед нами вполне оформленное и крепкое решение, способное наравне тягаться с текущими топами калифорнийской компании. По сути, мы имеем полноценный чип G92 с поднятыми частотами и очень быструю GDDR3 память, работающую почти на 2 ГГц. Кстати, о том, что в изначальном варианте G92 должен был иметь именно 128 потоковых процессоров и 64 текстурных блока мы говорили еще в обзоре GeForce 8800 GT. Как видите, для модели с индексом GT не просто так был выделен несколько урезанный чип. Данный ход позволил несколько разграничить сегмент производительных видеокарт и создать в нем еще более совершенный продукт. Тем более, что именно сейчас производство G92 уже прекрасно налажено и число чипов, способных работать на частотах более 600 МГц довольно велико. Впрочем, даже в первых ревизиях G92 довольно легко покорял 700 МГц. Сами понимаете, что теперь этот рубеж не является пределом. В этом мы еще успеем убедиться по ходу материала.

Итак, перед нами продукт компании XFX — видеокарта GeForce 8800 GTS 512 МБ. Именно данная модель и станет сегодня объектом нашего пристального изучения.

Наконец, перед нами сама плата. Основой для продукта XFX служит референс-дизайн, поэтому все, что будет сказано относительно данного продукта, можно отнести и к большинству решений других компаний. Ведь не для кого ни секрет, что на сегодняшний день подавляющее число производителей базируют дизайн своей продукции именно на том, что предлагает NVIDIA.

В отношении GeForce 8800 GTS 512 МБ нельзя не заметить, что печатная плата позаимствована у GeForce 8800 GT. Она значительно упрощена относительно видеокарт на G80, однако полностью отвечает требованиям новой архитектуры. В результате, можно сделать вывод, что выпуск GeForce 8800 GTS 512 МБ вряд ли был чем-то осложнен. Мы имеем ту же PCB и почти тот же чип, что и у предшественницы с индексом GT.

Что касается размеров рассматриваемой видеокарты, то в этом плане она полностью соответствует GeForce 8800 GTS 640 МБ. В чем вы можете убедиться сами на основе приведенного фото.

NVIDIA сочла нужным внести изменения в системе охлаждения. Она претерпела серьезные изменения и теперь напоминает своим видом все-таки кулер классической GeForce 8800 GTS 640 МБ, нежели GeForce 8800 GT.

Конструктив кулера достаточно прост. Он состоит из алюминиевого оребрения, продувом которой занимается соответствующая турбина. Пластины радиатора пронизывают медные тепловые трубки диаметром 6 мм каждая. Контакт с чипом осуществляется посредством медной подошвы. Тепло снимается с основания и переносится на радиатор, где и впоследствии рассеивается.

Наш экземпляр GeForce 8800 GTS был оснащен чипом G92 ревизии А2, выпущенным на Тайване. Память набрана 8-ю чипами производства Qimonda со временем выборки 1.0 нс.

Наконец, мы вставили видеокарту в слот PCI-E. Плата без проблем определилась и позволила установить драйвера. Не возникло трудностей и в отношении вспомогательного софта. GPU-Z вполне корректно выводил всю необходимую информацию.

Частота GPU составляет 678 МГц, памяти — 1970 МГц, шейдерного домена — 1700 МГц. В результате, мы вновь видим, что XFX не изменяет себе в привычке, поднимать частоты выше заводских. Правда, на этот раз прибавка невелика. Но обычно в ассортименте компании достаточно много карт одной серии, различающихся частотами. Некоторые из них, наверняка, имеют большие показатели.

Riva Tuner также нас не подвел и вывел всю информацию на мониторинге.

После этого мы решили проверить, насколько хорошо справляется со своей задачей штатный кулер. У GeForce 8800 GT с этим были серьезные проблемы. Система охлаждения имела довольно сомнительный запас эффективности. Этого, конечно, хватало для того, чтобы использовать плату в номинале, но для большего требовалась замена кулера.

Однако у GeForce 8800 GTS с этим все в порядке. После продолжительной нагрузки температура поднялась лишь до 61 °C. Это отличный результат для столь производительного решения. Впрочем, в каждой бочке меда есть своя ложка дегтя. Не обошлось и здесь без этого. К сожалению, система охлаждения жутко шумит. Причем, шум становится довольно неприятным уже при 55 °C, что нас даже удивило. Ведь чип почти не нагрелся. С какой стати турбина начинает интенсивно работать?

Тут нам на помощь пришел Riva Tuner. Данная утилита полезна не только тем, что позволяет разгонять и настраивать работу видеокарты, но и имеет функции управления оборотами кулера, если, конечно, плата сама имеет поддержку этой опции.

Мы решили выставить обороты на 48 % — это абсолютно тихая работа карты, когда вы можете полностью забыть о её шуме.

Однако подобные корректировки привели к увеличению температуры. На этот раз она составила 75 °C. Конечно, температура немного высоковата, но, на наш взгляд, это стоит того, чтобы избавиться от воя турбины.

Впрочем, на этом мы не остановились. Мы решили проверить, как поведет себя видеокарта при установке какой-либо альтернативной системы охлаждения.

Выбор пал на Thermaltake DuOrb — эффективную и стильную систему охлаждения, которая в свое время неплохо справилась с охлаждением GeForce 8800 GTX.

Температура упала на 1 °C относительно штатного кулера, работающего на автоматических оборотах (в нагрузке обороты автоматически увеличивались до 78 %). Что же, конечно, разница в эффективности ничтожна мала. Однако уровень шума также стал существенно меньше. Правда, бесшумным Thermaltake DuOrb тоже не назовешь.

В итоге, новый штатный кулер от NVIDIA оставляет лишь благоприятные впечатления. Он очень эффективен и, кроме того, позволяет выставлять любой уровень оборотов, что подойдет любителям тишины. Тем более, что даже в этом случае он хотя и хуже, но справляется с поставленной задачей.

Наконец, упомянем о разгонном потенциале. Он, кстати, как оказалось, одинаков, что для штатного кулера, что для DuOrb. Ядро удалось разогнать до 805 МГц, шейдерный домен до 1944 МГц, а память до 2200 МГц. Не может не радовать, что топовое решение, которое изначально обладает высокими частотами, имеет еще солидный запас, причем это касается как чипа, так и памяти.

Итак, мы рассмотрели видеокарту GeForce 8800 GTS 512 МБ производства XFX. Мы могли бы на этом моменте плавно перейти к тестовой части, однако мы решили рассказать об еще одном интересном решении, на этот раз из стана ATI, производства PowerColor.

Основная особенность данной видеокарты — память DDR3. Напомню вам, что большинство компаний выпускают Radeon HD 3870 с DDR4. Таким же типом памяти был оснащен и референс-вариант. Однако компания PowerColor достаточно часто избирает нестандартные пути и наделяет свою продукцию отличными от остальных особенностями.

Впрочем, другой тип памяти — не единственное отличие платы PowerColor от сторонних решений. Дело в том, что компания также решила оснастить видеокарту не стандартной турбиной, кстати, довольной эффективной, а еще более производительным продуктом от ZeroTherm — кулером GX810.

PCB упрощено. По большей части это коснулось системы питания. В этой области должно присутствовать четыре керамических конденсатора. Причем на большинстве плат они расположены подряд, вплотную друг к другу. На плате от PowerColor их осталось три штуки — два из них располагаются там, где и должны, и еще один вынесен к верхней части.

Несколько сглаживает впечатление от таких особенностей присутствие алюминиевого радиатора на цепях питания. Во время нагрузки они способны серьезно нагреваться, так что охлаждение будет не лишним.

Чипы памяти закрыты медной пластиной. На первый взгляд, это может порадовать, ведь это элемент, способный снизить температуру при нагреве памяти. Однако в действительно все обстоит не совсем так. Во-первых, пластину на данном экземпляре карты снять не удалось. По всей видимости, она крепко держится на термоклее. Возможно, если приложить усилия, то радиатор можно удалить, но мы усердствовать не стали. Поэтому о том, какая память установлена на карту, мы так и не узнали.

Второе, за что нельзя похвалить PowerColor, — это то, что кулер имеет конструкцию, способную направлять воздух на PCB, тем самым, снижая её температуру. Однако пластина этому обдуву частично препятствует. Нельзя сказать, что она совсем мешает. Но любые радиаторы на памяти были бы гораздо лучше вариантом. Или, по крайне мере, не стоит использовать термоинтерфейс, после которого пластину не возможно снять.

Не обошлось без проблем и самим кулером. Да, конечно, ZeroTherm GX810 — хороший кулер. Его эффективность находится на отличном уровне. Этому во многом способствует полностью медная чаша в качестве радиатора с длинной медной трубкой, пронизывающие все пластины. Но вот проблема в том, что на плате распаян 2-ух пинный коннектор. В результате кулер всегда работает в одном режиме, а именно — максимальном. С самого момента включения компьютера вентилятор кулера работает на предельных оборотах, создавая очень серьезный шум. С этим еще можно было бы смириться, относись это исключительно к 3D, все-таки мы были знакомы с более шумными Radeon X1800 и X1900, но вот когда кулер так шумит в 2D… Это не может не вызывать раздражения.

Радует лишь, что проблема эта решаемая. Ведь вы можете использовать регулятор оборотов. Мы, например, так и сделали. На минимальных оборотах кулер бесшумный, только вот эффективность сразу серьезно падает. Есть и другой вариант — сменить охлаждение. Его мы тоже пробовали. Для этого мы взяли все тот же Thermaltake DuOrb и обнаружили, что установка не возможна.

С одной стороны, монтажные отверстия подходят, только вот крупные конденсаторы на PCB препятствуют крепежу. В результате, осмотр платы мы завершаем на довольно негативной ноте. Перейдем к тому, как ведет себя видеокарта, когда установлена в компьютер.

Частота ядра составляет 775 МГц, что соответствует референсу. А вот частота памяти гораздо ниже традиционной значения — лишь 1800 МГц. Однако тут не стоит особо удивляться. Мы имеем дело с DDR3. Так что это вполне адекватный показатель. Кроме того, имейте ввиду, что DDR4 имеет значительно большие задержки. Таким образом, конечная производительность будет примерно на одном уровне. Разница будет проявляться лишь в приложениях, требовательных к пропускной способности.

Кстати, я обратил бы ваше внимание на то, что плата имеет БИОС 10.065. Это достаточно старая прошивка и в ней, наверняка, присутствует ошибка PLL VCO. В результате, вы не сможете разогнать вашу карту выше 862 МГц. Однако исправить это довольно просто. Для этого достаточно обновить БИОС.

Riva Tuner без проблем вывел всю необходимую информацию о частотах и температуре.

Температуре в нагрузке составила 55 °C, т. е. карта почти не нагрелась. Возникает лишь вопрос: если есть такой запас по эффективности, зачем использовать исключительно максимальные обороты для кулера?

Теперь о разгоне. В общем-то, не секрет, что частотный запас RV670 довольно мал, однако у нашего экземпляра она оказался ужасно мал. Нам удалось поднять частоту лишь на 8 МГц, т. е. до 783 МГц. Память показала более выдающиеся результаты — 2160 МГц. Отсюда можно сделать вывод, что на карте, скорее всего, используется память со временем выборки 1.0 нс.

Исследование производительности видеокарт

Список участников тестирования вы можете увидеть ниже:

  • GeForce 8800 GTS 512 МБ (650/1625/1940);
  • GeForce 8800 GTS 640 МБ (513/1180/1600);
  • Radeon HD 3870 DDR3 512 МБ (775/1800);
  • Radeon HD 3850 512 МБ (670/1650).

Тестовый стенд

Для выяснения уровня производительности видеокарт, рассмотренных выше, нами была собрана тестовая система нижеследующей конфигурации:

  • Процессор — Core 2 Duo E6550 (333?7, L2=4096 КБ) @ (456?7 = 3192 МГц);
  • Система охлаждения — Xigmatek HDT-S1283;
  • Термоинтерфейс — Arctic Cooling MX-2;
  • Оперативная память — Corsair TWIN2в6400С4-2048;
  • Материнская плата — Asus P5B Deluxe (Bios 1206);
  • Блок питания — Silverstone DA850 (850 Вт);
  • Жесткий диск — Serial-ATA Western Digital 500 ГБ, 7200 rpm;
  • Операционная система — Windows XP Service Pack 2;
  • Видеодрайвер — Forceware 169.21 для видеокарт NVIDIA, Catalyst 8.3 для плат AMD;
  • Монитор — Benq FP91GP.

Используемые драйверы

Драйвер ATI Catalyst был сконфигурирован следующим образом:

  • Catalyst A.I.: Standart;
  • MipMap Detail Level: High Quality;
  • Wait for vertical refresh: Always off;
  • Adaptive antialiasing: Off;
  • Temporal antialiasing: Off;

Драйвер ForceWare, в свою очередь, использовался при следующих настройках:

  • Texture Filtering: High quality;
  • Anisotropic sample optimization: Off;
  • Trilinear optimization: Off;
  • Threaded optimization: On;
  • Gamma correct antialiasing: On;
  • Transparency antialiasing: Off;
  • Vertical sync: Force off;
  • Остальные настройки: по умолчанию.

Используемые тестовые пакеты:

  • Doom, Build 1.1 — тестирование в утилите BenchemAll. Для теста на одном из уровней игры нами было записано демо;
  • Prey, Build 1.3 — тестирование через HOC Benchmark, демо HWzone. Boost Graphics выключен . Качество изображения Highest . Двукратный прогон демо;
  • F.E.A.R., Build 1.0.8 — тестирование через встроенный бенчмарк. Soft Shadows выключено ;
  • Need For Speed Carbon, Build 1.4 — максимальные настройки качества. Motion Blur отключен . Тестирование проходило посредством Fraps;
  • TimeShift, build 1.2 — детализация форсировалась в двух вариантах: High Detail и Very High Detail. Тестирование проходило посредством Fraps;
  • Unreal Tournament 3, build 1.2 — максимальные настройки качества. Прогон демо на уровне VCTF?Suspense;
  • World In Conflict, build 1.007 — использовалось два варианта настроек: Medium и High. Во втором случае отключались фильтры качества (анизотропная фильтрация и сглаживание). Тестирование проходило с помощью встроенного бенчмарка;
  • Crysis, build 1.2 — тестирование в режимах Medium и High. Тестирование проходило посредством Fraps.

* После названия игры указан build, т. е. версия игры. Мы стараемся добиться максимальной объективности теста, поэтому используем игры только с последними патчами.

Результаты тестирования

Общеизвестно, что флагманские модели графических адаптеров, относящиеся к высшему ценовому диапазону, являются, в первую очередь, публичной демонстрацией технологических достижений компании-разработчика. Хотя эти решения пользуются заслуженной популярностью у игроков-энтузиастов, основной картины продаж они никогда не делают. Далеко не каждый способен или желает отдать $600, сумму, сопоставимую со стоимостью самой дорогой современной игровой консоли, только за графическую карту, поэтому, основной вклад в доходы AMD/ATI и Nvidia вносят менее дорогие, но гораздо более массовые карты.

9 ноября прошлого года Nvidia анонсировала первый потребительский графический процессор с унифицированной архитектурой и поддержкой DirectX 10. Новинка была подробно описана нами в обзоре Directly Unified: Nvidia GeForce 8800 Architecture Review. Изначально, новинка легла в основу двух новых графических карт – GeForce 8800 GTX и GeForce 8800 GTS. Как известно, старшая модель отлично показала себя в играх и вполне может считаться выбором энтузиаста, которого не смущает цена, младшая же модель заняла достойное место в своей ценовой категории – менее $500, но более $350.

$449 – не очень большая цена за продукт нового поколения, обладающий полноценной поддержкой DirectX 10 и могущий предложить пользователю серьезный уровень производительности в современных играх. Тем не менее, Nvidia решила не останавливаться на достигнутом, и 12 февраля 2007 года представила на суд публики более доступную модель GeForce 8800 GTS 320MB с официальной стоимостью $299, чем серьезно укрепила свои позиции в этом секторе. Об этих двух графических картах и пойдет речь в сегодняшнем обзоре. Попутно мы выясним, насколько критичен для семейства GeForce 8 объем видеопамяти.

GeForce 8800 GTS: технические характеристики

Для оценки качеств и возможностей обеих моделей GeForce 8800 GTS нам следует напомнить нашим читателям характеристики семейства GeForce 8800.


Все три модели GeForce 8800 используют одно и то же графическое ядро G80, состоящее из 681 миллиона транзисторов, а также дополнительный чип NVIO, содержащий в своем составе TMDS-трансмиттеры, RAMDAC и т.п.. Использование столь сложного чипа для производства нескольких моделей графических адаптеров, относящихся к разным ценовым категориям, не является самым лучшим вариантом с точки зрения себестоимости конечного продукта, однако и неудачным его не назовешь: у Nvidia появляется возможность продать отбракованные версии GeForce 8800 GTX (не прошедшие отбраковку по частотам и/или имеющих некоторое количество дефектных блоков), а себестоимость видеокарт, продающихся по цене свыше $250 едва ли критична. Данный подход активно используется как Nvidia, так и её заклятым конкурентом – ATI, достаточно вспомнить историю графического процессора G71, который можно найти как в массовом недорогом видеоадаптере GeForce 7900 GS, так и в мощном двухчиповом монстре GeForce 7950 GX2.

Таким же образом был создан и GeForce 8800 GTS. Как можно увидеть из таблицы, в плане технических характеристик этот видеоадаптер значительно отличается от старшего собрата: у него не только ниже тактовые частоты и отключена часть потоковых процессоров, но также сокращен объем видеопамяти, урезана ширина шины доступа к ней и неактивна часть TMU и блоков растеризации.

Всего GeForce 8800 GTS располагает 6 группами потоковых процессоров, по 16 ALU в каждой, что дает в сумме 96 ALU. Главный соперник этой карты, AMD Radeon X1950 XTX, несет в своем составе 48 пиксельных процессоров, каждый из которых, в свою очередь, состоит из 2 векторных и 2 скалярных ALU – в сумме 192 ALU.

Казалось бы, в чистой вычислительной мощности GeForce 8800 GTS должен достаточно серьезно уступать Radeon X1950 XTX, но существует ряд нюансов, делающих такое предположение не вполне правомерным. Первый из них заключается в том, что потоковые процессоры GeForce 8800 GTS, подобно ALU в Intel NetBurst, работают на значительно более высокой частоте, нежели остальные части ядра – 1200 МГц против 500 МГц, что уже означает весьма серьезную прибавку к производительности. Другой нюанс следует из особенностей архитектуры графического процессора R580. Теоретически, каждый из его 48 блоков исполнения пиксельных шейдеров способен выполнять 4 инструкции за такт, не считая инструкции ветвления. Однако только 2 из них будут иметь тип ADD/MUL/MADD, а две оставшиеся всегда представляют собой инструкции ADD с модификатором. Соответственно, эффективность пиксельных процессоров R580 будет максимальной не во всех случаях. С другой стороны, потоковые процессоры G80 имеют полностью скалярную архитектуру и каждый из них способен исполнять за такт две скалярные операции, например, MAD+MUL. Хотя точных данных об архитектуре потоковых процессоров Nvidia мы по-прежнему не имеем, в данной статье мы рассмотрим, насколько новая унифицированная архитектура GeForce 8800 прогрессивней архитектуры Radeon X1900 и как это отражается на скорости в играх.

Что касается производительности систем текстурирования и растеризации, то, судя по характеристикам, на стороне GeForce 8800 GTS большее количество текстурников (24) и растеризаторов (20) по сравнению с Radeon X1950 XTX (16 TMU, 16 ROP), однако, их тактовая частота (500МГц) ощутимо ниже тактовой частоты продукта ATI (650MHz). Таким образом, решающего преимущества не имеет ни одна из сторон, а значит, на производительность в играх повлияет в основном "удачность" микро-архитектуры, а не численное преимущество исполнительных блоков.

Примечательно, что как GeForce 8800 GTS, так и Radeon X1950 XTX имеют одинаковую пропускную способность памяти – 64ГБ/сек, однако GeForce 8800 GTS использует 320-битную шину доступа к видеопамяти, в ней используется память GDDR3, работающая на частоте 1600МГц, тогда как у Radeon X1950 XTX можно найти 2ГГц память GDDR4 с 256-битным доступом. С учетом деклараций ATI более совершенного контроллера памяти с кольцевой топологией у R580 по сравнению с типичным контроллером Nvidia, будет интересно посмотреть, получит ли решение ATI Radeon некоторое преимущество в высоких разрешениях при включенном полноэкранном сглаживании против конкурента нового поколения, как это случалось в случае с GeForce 7.

Менее дорогой вариант GeForce 8800 GTS c 320MB памяти, анонсированный 12 февраля 2007 года и призванный заменить GeForce 7950 GT в сегменте решений класса performance-mainstream, отличается от обычной модели только объемом видеопамяти. Фактически, для получения этой карты Nvidia понадобилось всего лишь заменить микросхемы памяти емкостью 512 Мбит на чипы емкостью 256 Мбит. Простое и технологичное решение, оно позволило утвердить Nvidia свое технологическое превосходство в достаточно популярной среди пользователей ценовой категории $299. В дальнейшем мы выясним, насколько это отразилось на производительности новинки и стоит ли потенциальному покупателю доплачивать $150 за модель с 640 МБ видеопамяти.

В нашем сегодняшнем обзоре GeForce 8800 GTS 640MB будет представлена видеоадаптером MSI NX8800GTS-T2D640E-HD-OC. Расскажем об этом продукте подробнее.

MSI NX8800GTS-T2D640E-HD-OC: упаковка и комплектация

Видеоадаптер прибыл в нашу лабораторию в розничном варианте – упакованный в красочную коробку вместе со всеми сопутствующими аксессуарами. Коробка оказалась сравнительно небольшой, особенно, в сравнении с коробкой от MSI NX6800 GT, которая в свое время могла поспорить по части габаритов с упаковками Asustek Computer. Несмотря на скромные размеры, упаковка MSI традиционно снабжена удобной ручкой для переноски.


Оформление коробки выполнено в спокойных бело-голубых тонах и не режет глаз; лицевую сторону украшает изображение симпатичной рыжеволосой девушки-ангела, так что об агрессивных мотивах, столь популярных среди производителей видеокарт, речи не идет. Три наклейки сообщают покупателю о том, что карта предварительно разогнана производителем, поддерживает HDCP и комплектуется полной версией игры Company of Heroes. На обратной стороне коробки можно найти информацию о технологиях Nvidia SLI и MSI D.O.T. Express. Последняя является технологией динамического разгона, и, по заявлению MSI, позволяет поднять производительность видеоадаптера на 2%-10%, в зависимости от используемого профиля разгона.

Открыв коробку, помимо самого видеоадаптера, мы обнаружили следующий набор аксессуаров:


Краткое руководство по установке
Краткое руководство пользователя
Переходник DVI-I -> D-Sub
Разветвитель YPbPr/S-Video/RCA
Кабель S-Video
Переходник питания 2хMolex -> 6-pin PCI Express
CD с драйверами и утилитами MSI
Двухдисковое издание игры Company of Heroes

Оба руководства выполнены в виде постеров; на наш взгляд, они слишком просты и содержат только самую базовую информацию. Погоня за количеством языков, а их в кратком руководстве пользователя 26, привело к тому, что ничего особенно полезного, кроме основных сведений по установке карты в систему, из него почерпнуть не удастся. Мы считаем, что руководства могли бы быть несколько поподробней, что дало бы некоторое преимущество неопытным пользователям.

Диск с драйверами содержит устаревшую версию Nvidia ForceWare 97.29, а также ряд фирменных утилит, среди которых отдельного упоминания заслуживают MSI DualCoreCenter и MSI Live Update 3. Первая представляет собой унифицированный центр управления, позволяющий осуществлять разгон как видеокарты, так и центрального процессора, однако, для полной функциональности программа требует наличия системной платы MSI, оснащенной чипом CoreCell и, следовательно, малополезна владельцам плат других производителей. Утилита MSI Live Update 3 предназначена для отслеживания обновлений драйверов и BIOS и удобного их обновления через Интернет. Это достаточно удобный способ, особенно для тех, кто не желает разбираться в тонкостях ручного процесса обновления BIOS видеоадаптера.

Наличие в комплекте полной версии популярной тактической RTS Company of Heroes заслуживает отдельной похвалы MSI. Это действительно игра высшей категории, с отличной графикой и досконально проработанным игровым процессом; многие игроки называют ее лучшей игрой в этом жанре, что подтверждается многочисленными наградами, в том числе – званием "Лучшая Стратегическая Игра E3 2006". Как мы уже отмечали, несмотря на принадлежность к жанру стратегий реального времени, Company of Heroes может похвастаться современной графикой на уровне неплохого шутера с видом от первого лица, поэтому игра отлично подходит для демонстрации возможностей GeForce 8800 GTS. Помимо Company of Heroes, на дисках можно найти демо-версию Warhammer 40.000: Dawn of War – Dark Crusade.

Комплектацию MSI NX8800GTS-T2D640E-HD-OC мы можем с уверенностью назвать хорошей благодаря наличию полной версии очень популярной тактической RTS Company of Heroes и удобному программному обеспечению от MSI.

MSI NX8800GTS-T2D640E-HD-OC: дизайн печатной платы

Для модели GeForce 8800 GTS Nvidia разработала отдельную, более компактную печатную плату, нежели та, что используется для производства GeForce 8800 GTX. Так как все GeForce 8800 поставляются партнерам Nvidia в уже готовом виде, практически все, что будет сказано ниже, относится не только к MSI NX8800GTS, но и к любой другой модели GeForce 8800 GTS, будь то вариант с 640 или 320 МБ видеопамяти.


Печатная плата GeForce 8800 GTS значительно короче платы GeForce 8800 GTX. Ее длина составляет всего 22.8 сантиметра против почти 28 сантиметров у флагманской модели GeForce 8. Фактически, габариты GeForce 8800 GTS те же, что и у Radeon X1950 XTX, даже чуть меньше, так как кулер не выступает за пределы PCB.

Наш экземпляр MSI NX8800GTS использует плату, покрытую маской зеленого цвета, хотя на сайте компании продукт изображен с PCB более привычного черного цвета. В настоящее время в продаже встречаются как "черные", так и "зеленые" GeForce 8800 GTX и GTS. Несмотря на многочисленные слухи, циркулирующие в Сети, никакой разницы, кроме, собственно, цвета PCB, между такими картами нет, что подтверждает и официальный веб-сайт Nvidia. Чем же обусловлен такой "возврат к корням"?

На этот счет есть немало противоречивых слухов. Согласно некоторым из них, состав черного покрытия более токсичен, нежели традиционного зеленого, другие считают, что черное покрытие сложнее в нанесении или более дорогое. На практике, скорее всего, это не так – как правило, цены на паяльные маски разных цветов одинаковы, что исключает дополнительные проблемы с масками определенных цветов. Наиболее вероятен самый простой и логичный сценарий – карты разных цветов выпускаются разными контрактными производителями – Foxconn и Flextronics. Причем, Foxconn, вероятно, использует покрытия обоих цветов, так как мы встречали и "черные" и "зеленые" карты этого производителя.


Система питания GeForce 8800 GTS почти не уступает по сложности аналогичной системе GeForce 8800 GTX и даже содержит большее количество электролитических конденсаторов, но имеет более плотную компоновку и только один разъем внешнего питания, благодаря чему, печатную плату удалось сделать значительно короче. За управление питанием GPU отвечает тот же цифровой ШИМ-контроллер, что и в GeForce 8800 GTX, Primarion PX3540. Управление питанием памяти осуществляет второй контроллер, Intersil ISL6549, который, к слову отсутствует на GeForce 8800 GTX, где схема питания памяти иная.

Левая часть печатной платы, где расположены основные компоненты GeForce 8800 GTS – GPU, NVIO и память, практически идентична аналогичному участку PCB GeForce 8800 GTX, что неудивительно, так как разработка всей платы с нуля потребовала бы значительных финансовых и временных затрат. Кроме того, значительно упростить плату для GeForce 8800 GTS, проектируя ее с нуля, скорее всего, не удалось бы, в свете необходимости использования того же тандема G80 и NVIO, что и на флагманской модели. Единственным видимым отличием от GeForce 8800 GTX является отсутствие второй "гребенки" интерфейса MIO (SLI), на месте которой находится место для установки технологического разъема с защелками-фиксаторами, возможно, выполняющего ту же функцию, но не распаянного. Сохранена даже 384-битная разводка шины памяти, а урезание самой шины до нужной ширины произведено простейшим способом: вместо 12 чипов GDDR3 установлено только 10. Так как каждый чип имеет 32-битную шину, 10 микросхем в сумме как раз и дают необходимые 320 бит. Теоретически, ничто не препятствует созданию GeForce 8800 GTS с 384-битной шиной памяти, но появление такой карты на практике крайне маловероятно, потому, большие шансы на выпуск имеет полноценная GeForce 8800 GTX с пониженными частотами.


На MSI NX8800GTS-T2D640E-HD-OC установлено 10 микросхем GDDR3 Samsung K4J52324QE-BC12 емкостью 512 Мбит, работающие при напряжении питания 1.8В и имеющие номинальную частоту 800 (1600) МГц. Согласно официальным спецификациям Nvidia на GeForce 8800 GTS, память этого видеоадаптера должна иметь именно такую частоту. Но рассматриваемая нами версия MSI NX8800GTS не зря имеет в названии буквы "OC" – она является предварительно разогнанной, поэтому память работает на несколько более высокой частоте 850 (1700) МГц, что дает прибавку в пропускной способности с 64 ГБ/сек. до 68 ГБ/сек.

Так как единственное отличие GeForce 8800 GTS 320MB от обычной модели заключается в уменьшенном вдвое объеме видеопамяти, на эту карту просто устанавливаются микросхемы памяти емкостью 256 Мбит, например, Samsung серии K4J55323QC/QI или Hynix HY5RS573225AFP. В остальном две модели GeForce 8800 GTS идентичны друг другу вплоть до мельчайших деталей.

Маркировка GPU NX8800GTS несколько отличается от маркировки процессора GeForce 8800 GTX и выглядит, как "G80-100-K0-A2", тогда, как в эталонной флагманской карте чип маркирован символами "G80-300-A2". Мы знаем, что на производство GeForce 8800 GTS могут пускаться экземпляры G80, имеющие дефекты в части функциональных блоков и/или не прошедшие отбора по частоте. Возможно, именно эти особенности и отражены в маркировке.

У процессора 8800 GTS активны 96 потоковых процессоров из 128, 24 TMU из 32 и 20 ROP из 24. Для стандартного варианта GeForce 8800 GTS базовая частота GPU составляет 500 МГц (513 МГц реальная частота), а частота работы шейдерных процессоров – 1200 МГц (1188 МГц реальная частота), но у MSI NX8800GTS-T2D640E-HD-OC эти параметры равны 576 и 1350 МГц, что соответствует частотам GeForce 8800 GTX. Насколько это отразится на производительности изделия MSI, мы выясним позднее, в разделе, посвященном результатам игровых тестов.

Конфигурация выходных разъемов NX8800GTS стандартна: два разъема DVI-I, способные работать в двухканальном режиме и универсальный семиконтактный разъем mini-DIN, позволяющий как подключение устройств HDTV по аналоговому интерфейсу YPbPr, так и устройств SDTV, использующих интерфейс S-Video или Composite. У продукта MSI оба разъема DVI заботливо прикрыты резиновыми защитными колпачками – достаточно бессмысленная, но приятная мелочь.

MSI NX8800GTS-T2D640E-HD-OC: конструкция системы охлаждения

Система охлаждения, установленная на MSI NX8800GTS, а также на подавляющем большинстве GeForce 8800 GTS других поставщиков графических карт, представляет собой укороченную версию системы охлаждения GeForce 8800 GTX, описанной в соответствующем обзоре.


Укорочены радиатор и тепловая трубка, передающая тепловой поток от медной подошвы, контактирующей с теплораспределителем графического процессора. Также по-иному расположена плоская U-образная тепловая трубка, впрессованная в основание и отвечающая за равномерное распределение теплового потока. Алюминиевая рама, на которой закреплены все детали кулера. имеет множество выступов в местах контакта с микросхемами памяти, силовыми транзисторами стабилизатора питания и кристаллом чипа NVIO. Надежный тепловой контакт обеспечивается традиционными подушечками из неорганического волокна, пропитанными белой термопастой. Для GPU используется другая, но также привычная нашим читателям густая темно-серая термопаста.

Благодаря тому, что в конструкции системы охлаждения сравнительно немного медных элементов, масса ее невелика, и крепление не требует применения специальных пластин, предотвращающих фатальный изгиб PCB. Восьми обычных подпружиненных болтов, крепящих кулер прямо к плате, вполне достаточно. Возможность повреждения графического процессора практически исключена, так как он снабжен крышкой-теплораспределителем и окружен широкой металлической рамкой, защищающей чип от возможного перекоса системы охлаждения, а плату – от излишнего изгиба.

За обдув радиатора отвечает радиальный вентилятор с диаметром крыльчатки примерно 75 миллиметров, имеющий те же электрические параметры, что и в системе охлаждения GeForce 8800 GTX – 0.48А/12В, и подключенный к плате посредством четырехконтактного разъема. Система закрыта полупрозрачным пластиковым кожухом таким образом, что горячий воздух выдувается наружу сквозь прорези в крепежной планке.

Конструкция кулеров GeForce 8800 GTX и 8800 GTS продумана, надежна, проверена временем, практически бесшумна в работе и обеспечивает высокую эффективность охлаждения, поэтому менять ее на что-либо другое бессмысленно. MSI заменила лишь наклейку Nvidia на кожухе на собственную, повторяющую рисунок на коробке и снабдила вентилятор еще одной наклейкой, со своим фирменным логотипом.

MSI NX8800GTS-T2D640E-HD-OC: шумность и уровень энергопотребления

Для оценки уровня шума, генерируемого системой охлаждения MSI NX8800GTS, был использован цифровой шумомер Velleman DVM1326 с разрешающей способностью 0.1 дБ. Измерения производились с использованием взвешенной кривой А. На момент проведения замеров, фоновый уровень шума в лаборатории составил 36 дБА, а уровень шума на расстоянии одного метра от работающего стенда, оснащенного графической картой с пассивным охлаждением, был равен 40 дБА.






С точки зрения шумности, система охлаждения NX8800GTS (и любого другого GeForce 8800 GTS) ведет себя совершенно так же, как и система, устанавливаемая на GeForce 8800 GTX. Уровень шума очень невысок во всех режимах; по этому параметру новая конструкция Nvidia превосходит даже великолепный кулер GeForce 7900 GTX, ранее по праву считавшийся лучшим в своем классе. Добиться полной бесшумности и не потерять в эффективности охлаждения в данном случае можно разве что путем установки водяной системы охлаждения, особенно, если планируется серьезный разгон.

Как известно нашим читателям, эталонные экземпляры GeForce 8800 GTX из первых партий отказывались запускаться на стенде, оборудованном для измерения уровня энергопотребления видеокарт. Однако, большинство новых карт, относящихся к семейству GeForce 8800, а среди них и MSI NX8800GTS-T2D640E-HD-OC, без проблем заработали на этой системе, имеющей следующую конфигурацию:

Процессор Intel Pentium 4 560 (3.60ГГц, 1МБ L2);
Системная плата Intel Desktop Board D925XCV (i925X);
Память PC-4300 DDR2 SDRAM (2x512МБ);
Жесткий диск Samsung SpinPoint SP1213C (120 ГБ, Serial ATA-150, буфер 8МБ);
Microsoft Windows XP Pro SP2, DirectX 9.0c.

Как мы сообщали, системная плата, являющаяся сердцем измерительной платформы, специальным образом модернизирована: в разрыв цепей питания слота PCI Express x16 включены измерительные шунты, оснащенные разъемами для подключения измерительной аппаратуры. Таким же шунтом оборудован и переходник питания 2xMolex -> 6-pin PCI Express. В качестве измерительного инструмента используется мультиметр Velleman DVM850BL, обладающий погрешностью измерений не более 0.5%.

Для создания нагрузки на видеоадаптер в режиме 3D применяется первый графический тест SM3.0/HDR, входящий в состав пакета Futuremark 3DMark06 и запускаемый в бесконечном цикле в разрешении 1600х1200 при форсированной анизотропной фильтрации 16х. Пиковый режим 2D эмулируется путем запуска теста 2D Transparent Windows, являющегося частью пакета Futuremark PCMark05.

Таким образом, проведя стандартную процедуру измерения, нам удалось получить достоверные данные об уровне энергопотребления не только MSI NX8800GTS-T2D640E-HD-OC, но и всего семейства Nvidia GeForce 8800.











GeForce 8800 GTX действительно опередил в плане энергопотребления предыдущего "лидера", Radeon X1950 XTX, но лишь на 7 Ватт. Учитывая огромную сложность G80, 131.5 Ватт в режиме 3D можно смело считать хорошим показателем. Оба дополнительных разъема питания GeForce 8800 GTX потребляют примерно одинаковую мощность, не превышающую 45 Ватт даже в самом тяжелом режиме. Хотя дизайн PCB GeForce 8800 GTX предполагает установку одного восьмиконтактного разъема питания вместо шестиконтактного, вряд ли она будет актуальной даже в случае значительного повышения тактовых частот GPU и памяти. В режиме простоя экономичность флагмана Nvidia оставляет желать много лучшего, но это расплата за 681 миллион транзисторов и огромную, по меркам GPU, частоту шейдерных процессоров. Отчасти столь высокий уровень энергопотребления в простое обусловлен и тем, что семейство GeForce 8800 не понижает тактовые частоты в этом режиме.

У обоих вариантов GeForce 8800 GTS показатели заметно скромнее, хоть и не могут похвастаться экономичностью на уровне карт Nvidia, использующих ядро предыдущего поколения, G71. На единственный разъем питания этих карт приходится значительно более серьезная нагрузка, в отдельных случаях могущая достигать 70 Ватт и более. Уровни энергопотребления вариантов GeForce 8800 GTS с 640 и 320 МБ видеопамяти отличаются незначительно, что неудивительно – ведь этот параметр является единственным отличием этих карт друг от друга. Продукт MSI, работающий на повышенных частотах, потребляет больше стандартной версии GeForce 8800 GTS - порядка 116 Ватт под нагрузкой в режиме 3D, что все равно меньше аналогичного показателя Radeon X1950 XTX. Конечно, в режиме 2D карта AMD значительно экономичнее, однако, видеоадаптеры этого класса приобретаются именно с целью использования в 3D, поэтому, этот параметр не столь критичен, как уровень энергопотребления в играх и трехмерных приложениях.

MSI NX8800GTS-T2D640E-HD-OC: особенности разгона

Разгон представителей семейства Nvidia GeForce 8800 сопряжен с рядом особенностей, о которых мы считаем нужным рассказать нашим читателям. Как вы, вероятно, помните, первые представители седьмого поколения GeForce, использующие 0.11-мкм ядро G70, могли повышать частоты блоков растеризации и пиксельных процессоров только с шагом 27 МГц, и если разгон оказывался меньше этого значения, прирост производительности практически отсутствовал. Позднее, в картах на базе G71 Nvidia вернулась к стандартной схеме разгона с шагом в 1 МГц, однако, в восьмом поколении GeForce дискретность изменения тактовых частот появилась вновь.

Схема распределения и изменения тактовых частот в GeForce 8800 достаточно нетривиальна, что связано с тем, что блоки шейдерных процессоров в G80 работают на значительно более высокой частоте, нежели остальные блоки GPU. Соотношение частот составляет примерно 2.3 к 1. Хотя основная частота графического ядра может меняться с меньшим шагом, нежели 27 МГц, частота шейдерных процессоров всегда изменяется с шагом 54 МГц (2х27 МГц), что создает дополнительные трудности при разгоне, ведь все утилиты манипулируют основной частотой, а вовсе не частотой шейдерного "домена". Существует, однако, несложная формула, позволяющая с достаточной точностью определить частоту потоковых процессоров GeForce 8800 после разгона:

OC shader clk = Default shader clk / Default core clk * OC core clk


Где OC shader clk – искомая частота (приблизительно), Default shader clk – начальная частота шейдерных процессоров, Default core clk - начальная частота ядра, а OC core clk – частота разогнанного ядра.

Рассмотрим характер поведения MSI NX8800GTS-T2D640E-HD-OC при разгоне с помощью утилиты RivaTuner2 FR, позволяющей отслеживать реальные частоты различных областей или, как их еще называют, "доменов" графического процессора G80. Поскольку продукт MSI имеет те же частоты GPU (576/1350), что и GeForce 8800 GTX, нижеследующая информация актуальна и для флагманской графической карты Nvidia. Мы будем повышать основную частоту GPU шагами по 5 МГц: это достаточно мелкий шаг и при этом он не кратен 27 МГц.


Эмпирическая проверка подтвердила: основная частота графического ядра действительно может меняться с переменным шагом – 9, 18 или 27 МГц, причем, закономерность изменения нам уловить не удалось. Частота шейдерных процессоров во всех случаях менялась шагами по 54 МГц. Из-за этого некоторые частоты основного "домена" G80 оказываются практически бесполезными при разгоне, и их использование приведет разве что к излишнему нагреву графического процессора. Например, нет никакого смысла добиваться прироста основной частоты ядра до 621 МГц – частота шейдерного блока все равно будет составлять 1458 МГц. Таким образом, разгон GeForce 8800 следует осуществлять тщательно, пользуясь вышеприведенной формулой и сверяясь с данными мониторинга Riva Tuner или другой утилиты с аналогичной функциональностью.

Ожидать серьезных результатов по разгону от версии NX8800GTS, уже разогнанной производителем, было бы нелогично, однако, карта неожиданно показала совсем неплохой потенциал, по крайней мере, со стороны графического процессора. Его частоты нам удалось поднять с заводских 576/1350 МГц до 675/1566 МГц, при этом, NX8800GTS устойчиво проходила несколько циклов 3DMark06 подряд без какого-либо дополнительного охлаждения. Температура процессора, по данным Riva Tuner, не превысила 70 градусов.

Память поддалась разгону значительно хуже, так как на NX8800GTX OC Edition были установлены микросхемы, рассчитанные на 800 (1600) МГц, работающие на частоте выше номинала – 850 (1700) МГц. В результате, нам пришлось остановиться на отметке 900 (1800) МГц, так как дальнейшие попытки поднятия частоты памяти неизменно приводили к зависанию или сбою в драйвере.

Таким образом, карта показала хороший потенциал к разгону, но только для графического процессора: сравнительно медленные микросхемы памяти не позволили значительно повысить ее частоту. Для них уровень GeForce 8800 GTX следует считать хорошим достижением, а 320-битная шина при такой частоте уже способна обеспечить серьезное превосходство в пропускной способности над Radeon X1950 XTX: 72 ГБ/сек против 64 ГБ/сек. Разумеется, результат разгона может варьироваться в зависимости от конкретного экземпляра MSI NX8800GTS OC Edition и применения дополнительных средств, таких, как модификация схемы питания карты или установка водяного охлаждения.

Конфигурация тестовой платформы и методы тестирования

Сравнительное исследование производительности GeForce 8800 GTX проводилось на платформах, имевших следующую конфигурацию.

Процессор AMD Athlon 64 FX-60 (2 x 2.60ГГц, 2 x 1МБ L2)
Системная плата Abit AN8 32X (nForce4 SLI X16) для карт Nvidia GeForce
Системная плата Asus A8R32-MVP Deluxe (ATI CrossFire Xpress 3200) для карт ATI Radeon
Память OCZ PC-3200 Platinum EL DDR SDRAM (2x1ГБ, CL2-3-2-5)
Жесткий диск Maxtor MaXLine III 7B250S0 (Serial ATA-150, буфер 16МБ)
Звуковая карта Creative SoundBlaster Audigy 2
Блок питания Enermax Liberty 620W (ELT620AWT, номинальная мощность 620W)
Монитор Dell 3007WFP (30", максимальное разрешение 2560x1600)
Microsoft Windows XP Pro SP2, DirectX 9.0c
AMD Catalyst 7.2
Nvidia ForceWare 97.92

Поскольку мы считаем применение оптимизаций трилинейной и анизотропной фильтрации неоправданным, драйверы были настроены стандартным образом, подразумевающим максимально возможное качество фильтрации текстур:

AMD Catalyst:

Catalyst A.I.: Standard
Mipmap Detail Level: High Quality
Wait for vertical refresh: Always off
Adaptive antialiasing: Off
Temporal antialiasing: Off
High Quality AF: On

Nvidia ForceWare:

Texture Filtering: High Quality
Vertical sync: Off
Trilinear optimization: Off
Anisotropic optimization: Off
Anisotropic sample optimization: Off
Gamma correct antialiasing: On
Transparency antialiasing: Off
Остальные настройки: по умолчанию

В каждой игре был установлен максимально возможный уровень качества графики, при этом, конфигурационные файлы игр модификациям не подвергались. Для снятия данных о производительности использовались либо встроенные возможности игры, либо, при их отсутствии, утилита Fraps. По возможности, фиксировались данные о минимальной производительности.

Тестирование проводилось в трех стандартных для принятой нами методики разрешениях: 1280х1024, 1600х1200 и 1920х1200. Одной из целей данного обзора является оценка влияния объема видеопамяти GeForce 8800 GTS на производительность. Помимо этого, технические характеристики и стоимость обоих вариантов этого видеоадаптера, позволяют рассчитывать на достаточно высокий уровень производительности в современных играх при использовании FSAA 4x, поэтому мы постарались использовать режим "eye candy" везде, где это возможно.

Активация FSAA и анизотропной фильтрации производилась средствами игры; в случае отсутствия таковых, их форсирование осуществлялось при помощи соответствующих настроек драйверов ATI Catalyst и Nvidia ForceWare. Тестирование без полноэкранного сглаживания применялось только для игр, не поддерживающих FSAA по техническим причинам, либо при использовании FP HDR одновременно с участием в тестировании представителей семейства GeForce 7, не поддерживающего одновременную работу этих возможностей.

Поскольку нашей задачей являлось, в том числе, и сравнение производительности графических карт, отличающихся только объемом видеопамяти, MSI NX8800GTS-T2D640E-HD-OC тестировалась 2 раза: при заводских частотах, и при частотах, пониженных до эталонных для GeForce 8800 GTS значений: 513/1188/800 (1600) МГц. Помимо продукта MSI и референсного экземпляра Nvidia GeForce 8800 GTS 320MB, в тестировании приняли участие следующие видеоадаптеры:

Nvidia GeForce 8800 GTX (G80, 576/1350/1900MHz, 128sp, 32tmu, 24rop, 384-bit, 768MB)
Nvidia GeForce 7950 GX2 (2xG71, 500/1200MHz, 48pp, 16vp, 48tmu, 32rop, 256-bit, 512MB)
AMD Radeon X1950 XTX (R580+, 650/2000MHz, 48pp, 8vp, 16tmu, 16rop, 256-bit, 512MB)

В качестве тестового программного обеспечения был использован следующий набор игр и приложений:

Трехмерные шутеры с видом от первого лица:

Battlefield 2142
Call of Juarez
Far Cry
F.E.A.R. Extraction Point
Tom Clancy"s Ghost Recon Advanced Warfighter
Half-Life 2: Episode One
Prey
Serious Sam 2
S.T.A.L.K.E.R.: Shadow of Chernobyl


Трехмерные шутеры с видом от третьего лица:

Tomb Raider: Legend


RPG:

Gothic 3
Neverwinter Nights 2
The Elder Scrolls IV: Oblivion


Симуляторы:


Стратегические игры:

Command & Conquer: Tiberium Wars
Company of Heroes
Supreme Commander


Синтетические игровые тесты:

Futuremark 3DMark05
Futuremark 3DMark06

Игровые тесты: Battlefield 2142


Между двумя вариантами GeForce 8800 GTS с разным объемом видеопамяти на борту не обнаруживается существенной разницы вплоть до разрешения 1920х1200, хотя в 1600х1200 младшая модель и уступает старшей порядка 4-5 кадров в секунду при вполне комфортной производительности обеих. Разрешение 1920х1440, однако, является переломным: GeForce 8800 GTS 320MB резко выбывает из игры с более чем 1.5-кратным отставанием в среднем и двукратным – в минимальном fps. Более того, она проигрывает и картам предыдущего поколения. Налицо нехватка видеопамяти или проблема с реализацией ее менеджмента у семейства GeForce 8800.

MSI NX8800GTS OC Edition заметно опережает эталонную модель, начиная с разрешения 1600х1200, но догнать GeForce 8800 GTX ему, конечно, не под силу, хотя в 1920х1440 разрыв между этими картами становится впечатляюще узким. Очевидно, что разница в ширине шины доступа к памяти у GeForce 8800 GTS и GTX здесь несущественна.

Игровые тесты: Call of Juarez


Обе модели GeForce 8800 GTS показывают одинаковый уровень производительности во всех разрешениях, включая 1920х1200. Это достаточно закономерно, учитывая тестирование с включенным HDR, но выключенным FSAA. Работая при номинальных частотах, карты уступают GeForce 7950 GX2.

Разогнанный вариант MSI позволяет добиться паритета в высоких разрешениях, использование которых в этой игре нецелесообразно даже в случае наличия в вашей системе GeForce 8800 GTX. К примеру, в 1600х1200 средняя производительности флагманской графической карты Nvidia составляет всего 40 fps с провалами в графически интенсивных сценах до 21 fps. Для шутера с видом от первого лица такие показатели едва ли можно назвать по настоящему комфортными.

Игровые тесты: Far Cry


Игра уже далеко не молода и плохо подходит для тестирования современных видеоадаптеров высокого класса. Несмотря на использование сглаживания, заметные отличия в их поведении можно увидеть только в разрешении 1920х1200. GeForce 8800 GTS 320MB сталкивается здесь с нехваткой видеопамяти, и поэтому уступает примерно 12% модели, оснащенной 640 МБ видеопамяти. Впрочем, из-за скромных по нынешним меркам требований Far Cry, потеря комфорта игроку не грозит.

MSI NX8800GTS OC Edition идет практически вровень с GeForce 8800 GTX: в Far Cry мощность последнего явно невостребована.


Из-за характера сцены, записанной на уровне Research, показания более разнообразны; уже в разрешении 1600х1200 можно увидеть отличия в производительности различных представителей семейства GeForce 8800. Причем, отставание версии с 320МБ памяти видно уже здесь, несмотря на то, что действие происходит в замкнутом пространстве подземной пещеры. Разница в производительности между продуктом MSI и GeForce 8800 GTX в разрешении 1920х1200 значительно больше, нежели в предыдущем случае, так как производительность шейдерных процессоров на этом уровне играет более важную роль.




В режиме FP HDR GeForce 8800 GTS 320MB более не испытывает проблем с объемом видеопамяти и ничем не уступает старшему собрату, обеспечивая достойный уровень производительности во всех разрешениях. Вариант, предлагаемый MSI, дает еще 15% прироста в скорости, но даже версия, работающая при стандартных тактовых частотах, достаточно быстра для использования разрешения 1920х1200, а GeForce 8800 GTX, вне сомнения, обеспечит комфортные условия игроку и в разрешении 2560х1600.

Игровые тесты: F.E.A.R. Extraction Point


Визуальное богатство F.E.A.R. требует соответствующих ресурсов от видеоадаптера, и 5%-отставание GeForce 8800 GTS 320MB видно уже в разрешении 1280х1024, а в следующем разрешении, 1600х1200, оно резко превращается в 40%.

Польза от разгона GeForce 8800 GTS неочевидна: как разогнанный, так и обычный варианты позволяют одинаково успешно играть в разрешении 1600х1200. В следующем же разрешении прироста скорости от разгона просто недостаточно, чтобы выйти на комфортный для шутеров с видом от первого лица уровень. Это под силу только GeForce 8800 GTX со 128 активными шейдерными процессорами и 384-битной подсистемой памяти.

Игровые тесты: Tom Clancy"s Ghost Recon Advanced Warfighter

Из-за использования отложенного рендеринга (deferred rendering) использование FSAA в GRAW невозможно технически, поэтому, данные приведены только для режима с анизотропной фильтрацией.


Преимущество MSI NX8800GTS OC Edition над обычной эталонной картой растет по мере роста разрешения, и в разрешении 1920х1200 достигает 19%. В данном случае именно эти 19% позволяют достичь средней производительности на уровне 55 fps, что вполне комфортно для игрока.

Что касается сравнения двух моделей GeForce 8800 GTS с разным объемом видеопамяти, то разница в их производительности отсутствует.

Игровые тесты: Half-Life 2: Episode One


В разрешении 1280х1024 налицо ограничение со стороны центрального процессора нашей тестовой системы – все карты показывают одинаковый результат. В 1600х1200 различия уже выявляются, но они непринципиальны, по крайней мере, для трех вариантов GeForce 8800 GTS: все три обеспечивают весьма комфортный уровень производительности. Аналогично можно сказать и про разрешение 1920х1200. Несмотря на качественную графику, игра нетребовательна к объему видеопамяти и проигрыш GeForce 8800 GTS 320MB старшей и значительно более дорогой модели с 640 МБ памяти на борту составляет лишь около 5%. Разогнанный вариант GeForce 8800 GTS, предлагаемый компанией MSI, уверенно занимает второе место после GeForce 8800 GTX.

Хотя GeForce 7950 GX2 и показывает лучшие результаты, нежели GeForce 8800 GTS в разрешении 1600х1200, не стоит забывать о проблемах, могущих возникнуть при использовании карты, являющейся, по сути, тандемом SLI, а также о значительно более низком качестве текстурной фильтрации у семейства GeForce 7. Новое решение Nvidia, конечно, пока также имеет проблемы с драйверами, но оно обладает перспективными возможностями, и, в отличие от GeForce 7950 GX2, имеет все шансы избавиться от "детских болезней" в кратчайшие сроки.

Игровые тесты: Prey


GeForce 8800 GTS 640MB не обнаруживает ни малейшего преимущества перед GeForce 8800 GTS 320MB, возможно, потому, что игра использует модифицированный движок Doom III и не проявляет особых аппетитов в смысле требований к объему видеопамяти. Как и в случае с GRAW, повышенная производительность NX8800GTS OC Edition позволяет рассчитывать владельцам этого видеоадаптера на достаточно комфортную игру в разрешении 1920х1200. Для сравнения, обычный GeForce 8800 GTS демонстрирует такие же цифры в разрешении 1600х1200. Флагман линейки, GeForce 8800 GTX вне конкуренции.

Игровые тесты: Serious Sam 2


Детище хорватских разработчиков из Croteam всегда жестко требовало от видеоадаптера наличия 512 МБ видеопамяти, в противном случае карая его чудовищным падением производительности. Объема, предоставляемого недорогим вариантом GeForce 8800 GTS, оказалось недостаточно, чтобы удовлетворить аппетиты игры, в результате чего, она смогла показать лишь 30 fps в разрешении 1280х1024, в то время как версия с 640 МБ памяти на борту оказалась быстрее более чем в два раза.

По неизвестной причине, минимальная производительность всех GeForce 8800 в Serious Sam 2 крайне низка, что может быть связано как с архитектурными особенностями семейства, имеющего, как известно, унифицированную архитектуру без разделения на пиксельные и вершинные шейдеры, так и с недоработками в драйверах ForceWare. По этой причине добиться полого комфорта владельцам GeForce 8800 в этой игре пока не удастся.

Игровые тесты: S.T.A.L.K.E.R.: Shadow of Chernobyl

С нетерпением ожидаемый многими игроками, проект GSC Game World после долгих лет разработки, наконец, увидел свет, спустя 6 или 7 лет после анонса. Игра получилась неоднозначной, но, тем не менее, достаточно многогранной, чтобы пытаться описать ее в нескольких фразах. Отметим лишь, что по сравнению с одной из первых версий, движок проекта был значительно усовершенствован. Игра получила поддержку ряда современных технологий, включая Shader Model 3.0, HDR, parallax mapping и другие, но не потеряла возможности работать в упрощенном режиме со статической моделью освещения, обеспечивая великолепную производительность на не очень мощных системах.

Поскольку мы ориентируемся на максимальный уровень качества изображения, мы тестировали игру в режиме полного динамического освещения с максимальной детализацией. В этом режиме, подразумевающим, в числе прочего, использование HDR, отсутствует поддержка FSAA; по крайней мере, так обстоят дела в текущей версии S.T.A.L.K.E.R. Поскольку при использовании статической модели освещения и эффектов DirectX 8, игра очень сильно теряет в привлекательности, мы ограничились анизотропной фильтрацией.


Игра отнюдь не страдает скромностью аппетитов – с максимальной детализацией даже GeForce 8800 GTX не в состоянии обеспечить в ней 60 fps в разрешении 1280х1024. Правда, надо отметить, что в низких разрешениях основным ограничивающим фактором является производительность CPU, так как разброс между картами невелик и их средние результаты довольно близки.

Тем не менее, некоторое отставание GeForce 8800 GTS 320MB от старшего собрата видно уже здесь, и с ростом разрешения оно лишь усугубляется, а в разрешении 1920х1200 младшему представителю семейства GeForce 8800 попросту не хватает имеющегося объема видеопамяти. Это неудивительно, учитывая масштабность игровых сцен и обилие спецэффектов, используемых в них.

В целом, можно сказать, что GeForce 8800 GTX не обеспечивает серьезного преимущества в S.T.A.L.K.E.R. перед GeForce 8800 GTS, а Radeon X1950 XTX выглядит столь же успешно, что и GeForce 8800 GTS 320MB. Решение AMD даже в чем-то превосходит решение Nvidia, так как оно работоспособно в разрешении 1920х1200, однако, практическое использование такого режима нецелесообразно из-за средней производительности на уровне 30-35 fps. Это же относится и к GeForce 7950 GX2, который, к слову, несколько опережает и непосредственного конкурента и младшую модель нового поколения.

Игровые тесты: Hitman: Blood Money


Ранее мы отметили, что наличие 512 МБ видеопамяти обеспечивает такому видеоадаптеру некоторый выигрыш в Hitman: Blood Money в высоких разрешениях. По-видимому, 320 МБ также достаточно, поскольку GeForce 8800 GTS 320MB практически не уступает обычному GeForce 8800 GTS вне зависимости от используемого разрешения; разница не превышает 5%.

Обе карты, а также разогнанный вариант GeForce 8800 GTS, предлагаемый MSI, позволяют успешно играть во всех разрешениях, а GeForce 8800 GTX даже допускает использование более качественных режимов FSAA, нежели обычный MSAA 4x, так как обладает необходимым для этого запасом производительности.

Игровые тесты: Tomb Raider: Legend


Несмотря на использование настроек, обеспечивающих максимальное качество графики, GeForce 8800 GTS 320MB справляется с игрой столь же успешно, как и обычный GeForce 8800 GTS. Обе карты делают доступным игроку разрешение 1920х1200 в режиме "eye candy". MSI NX8800GTS OC Edition несколько превосходит обе референсные карты, но только в среднем fps – минимальный остается таким же. Не больше он и у GeForce 8800 GTX, что может означать, что данный показатель обусловлен какими-то особенностями игрового движка.

Игровые тесты: Gothic 3

Текущая версия Gothic 3 не поддерживает FSAA, поэтому тестирование проводилось только с использованием анизотропной фильтрации.


Несмотря на отсутствие поддержки полноэкранного сглаживания, GeForce 8800 GTS 320MB серьезно уступает не только обычному GeForce 8800 GTS, но и Radeon X1950 XTX, немного опережая лишь GeForce 7950 GX2. Из-за производительности на уровне 26-27 fps в разрешении 1280х1024 эта карта подходит для Gothic 3 не лучшим образом.

Отметим, что GeForce 8800 GTX опережает GeForce 8800 GTS, в лучшем случае, на 20%. По всем видимости, что игра неспособна задействовать всех ресурсов, которыми располагает флагманская модель Nvidia. Об этом говорит и незначительная разница между обычным и разогнанным вариантом GeForce 8800 GTS.

Игровые тесты: Neverwinter Nights 2

Начиная с версии 1.04, игра позволяет использовать FSAA, но поддержка HDR все еще остается незавершенной, поэтому мы тестировали NWN 2 в режиме "eye candy".


Как уже упоминалось, минимальный барьер играбельности для Neverwinter Nights 2 составляет 15 кадров в секунду, и GeForce 8800 GTS 320MB балансирует на этой грани уже в разрешении 1600х1200, в то время как для версии с 640 МБ памяти 15 fps является минимальным показателем, ниже которого ее производительность не опускается.

Игровые тесты: The Elder Scrolls IV: Oblivion

Без HDR игра значительно теряет в привлекательности, и, хотя на этот счет мнения игроков расходятся, мы тестировали TES IV именно в режиме с включенным FP HDR.


Производительность GeForce 8800 GTS 320MB напрямую зависит от используемого разрешения: если в 1280х1024 новинка в состоянии конкурировать с наиболее производительными картами предыдущего поколения, то в 1600х1200 и, особенно, 1920х1200 она им проигрывает, уступая до 10% Radeon X1950 XTX и до 25% GeForce 7950 GX2. Тем не менее, это очень хороший результат для решения, имеющего официальную цену всего $299.

Обычный GeForce 8800 GTS и его разогнанный вариант, предлагаемый MSI, чувствуют себя более уверенно и обеспечивают комфортную производительность на уровне шутеров с видом от первого лица во всех разрешениях.


Исследуя две версии GeForce 7950 GT, различающиеся объемом видеопамяти, мы не зафиксировали серьезных расхождений в производительности в TES IV, однако, в аналогичной ситуации с двумя версиями GeForce 8800 GTS картина совершенно иная.
Если в 1280х1024 они ведут себя одинаково, то уже в 1600х1200 вариант с 320 МБ памяти более чем вдвое уступает варианту, оснащенному 640 МБ, а в разрешении 1920х1200 его производительность опускается до уровня Radeon X1650 XT. Совершенно очевидно, что дело здесь не в объеме видеопамяти, как таковом, а в особенностях ее распределения драйвером. Вероятно, проблема может быть исправлена путем доработки ForceWare, и с выходом новых версий драйверов Nvidia мы проверим это утверждение.

Что касается GeForce 8800 GTS и MSI NX8800GTS OC Edition, то даже на открытых пространствах мира Oblivion они обеспечивают высокий уровень комфорта во всех разрешениях, хотя, конечно, и не в районе 60 fps, как в закрытых помещениях. Наиболее мощные решения предыдущего поколения просто не в состоянии соперничать с ними.

Игровые тесты: X3: Reunion


Средняя производительность всех представителей семейства GeForce 8800 достаточно высока, но минимальная по-прежнему находится на низком уровне, что означает необходимость доработки драйверов. Результаты GeForce 8800 GTS 320MB те же, что и у GeForce 8800 GTS 640MB.

Игровые тесты: Command & Conquer 3: Tiberium Wars

Серия стратегий реального времени Command & Conquer, вероятно, знакома всем, кто мало-мальски увлекается компьютерными играми. Продолжение серии, недавно выпущенное Electronic Arts переносит игрока в хорошо знакомый мир противостояния GDI и Brotherhood of Nod, к которым, на этот раз, присоединилась третья фракция в лице инопланетных захватчиков. Движок игры выполнен на современном уровне и использует продвинутые спецэффекты; кроме того, он обладает одной особенностью – ограничителем fps, зафиксированным на отметке 30 кадров в секунду. Возможно, это сделано с целью ограничить скорость работы AI и, таким образом, избежать нечестного преимущества над игроком. Поскольку штатными средствами ограничитель не отключается, мы тестировали игру с ним, а значит, обращали внимание в первую очередь на минимальный fps.


30 fps способны обеспечить практически все участники тестирования во всех разрешениях, за исключением GeForce 7950 GX2, который испытывает проблемы с функционированием режима SLI. Скорее всего, в драйвере просто отсутствует соответствующая поддержка, так как последний раз официальный Windows XP драйвер Nvidia ForceWare для семейства GeForce 7 обновлялся более полугода назад.

Что касается обеих моделей GeForce 8800 GTS, то они демонстрируют одинаковый минимальный fps, и, следовательно, обеспечивают одинаковый уровень комфорта для игрока. Хотя модель с 320 МБ видеопамяти уступает старшей модели в разрешении 1920х1200, 2 кадра в секунду едва ли является критичной величиной, что, при одинаковой минимальной производительности, опять-таки, никак не влияет на игровой процесс. Полное отсутствие дискретности управления может обеспечить только GeForce 8800 GTX, чей минимальный fps не падает ниже отметки 25 кадров в секунду.

Игровые тесты: Company of Heroes

Из-за проблем с активацией FSAA в этой игре мы решили отказаться от использования режима "eye candy" и тестировали ее в режиме чистой производительности с включенной анизотропной фильтрацией.


Перед нами еще одна игра, где GeForce 8800 GTS 320MB уступает предыдущего поколения с неунифицированной архитектурой. По сути, решение Nvidia стоимостью $299 пригодно для использования в разрешениях не выше 1280х1024, даже несмотря на отключенное сглаживание, в то время как модель стоимостью $449, отличающаяся единственным параметром – объемом видеопамяти, позволяет успешно играть даже в 1920х1200. Впрочем, это доступно и владельцам AMD Radeon X1950 XTX.

Игровые тесты: Supreme Commander


А вот Supreme Commander, в отличие от Company of Heroes, не предъявляет жестких требований к объему видеопамяти. В этой игре GeForce 8800 GTS 320MB и GeForce 8800 GTS показывают одинаково высокий результат. Некоторый дополнительный прирост можно получить с помощью разгона, что демонстрирует изделие MSI, но достичь уровня GeForce 8800 GTX такой шаг все равно не даст. Впрочем, имеющейся производительности достаточно для использования всех разрешений, включая 1920х1200, тем более что ее флуктуации невелики, и минимальный fps лишь немногим уступает среднему.

Синтетические тесты: Futuremark 3DMark05


Так как по умолчанию 3DMark05 использует разрешение 1024х768 и не использует полноэкранного сглаживания, то GeForce 8800 GTS 320MB закономерно демонстрирует тот же результат, что и обычный вариант с 640 МБ видеопамяти. Разогнанная версия GeForce 8800 GTS, поставляемая на рынок Micro-Star International, может похвастаться красивым ровным результатом – 13800 очков.






В отличие от общего результата, получаемого в режиме по умолчанию, результаты отдельных тестов мы получаем, запуская их в режиме "eye candy". Но в данном случае это никак не сказалось на производительности GeForce 8800 GTS 320MB – сколько-нибудь заметного отставания от GeForce 8800 GTS зафиксировано не было даже в третьем, наиболее ресурсоемком тесте. MSI NX8800GTS OC Edition во всех случаях занял стабильное второе место после GeForce 8800 GTX, подтвердив результаты, полученные в общем зачете.

Синтетические тесты: Futuremark 3DMark06


Оба варианта GeForce 8800 GTS ведут себя так же, как и в предыдущем случае. Однако 3DMark06 использует более сложную графику, что, в сочетании с использованием FSAA 4x в отдельных тестах, может дать другую картину. Давайте посмотрим.






Результаты отдельных групп тестов также закономерны. В группе SM3.0/HDR используется большее количество более сложных шейдеров, поэтому преимущество GeForce 8800 GTX выражено ярче, нежели в группе SM2.0. AMD Radeon X1950 XTX также смотрится более выигрышно в случае активного использования Shader Model 3.0 и HDR, а GeForce 7950 GX2, напротив, в тестах SM2.0.




После включения FSAA GeForce 8800 GTS 320MB действительно начинает проигрывать GeForce 8800 GTS 640MB в разрешении 1600х1200, а в 1920х1200 новое решение Nvidia вообще не может пройти тесты из-за нехватки видеопамяти. Проигрыш близок к двукратному как в первом, так и во втором тесте SM2.0, несмотря на то, что по построению графических сцен они весьма отличаются.






В первом тесте SM3.0/HDR влияние объема видеопамяти на производительность отчетливо видно уже в разрешении 1280х1024. Младшая модель GeForce 8800 GTS уступает старшей около 33%, затем, в разрешении 1600х1200 отставание увеличивается до почти 50%. Второй тест, с гораздо менее сложной и масштабной сценой, не столь требователен объему видеопамяти, и здесь отставание составляет 5% и около 20%, соответственно.

Заключение

Время подведить итоги. Мы протестировали две модели Nvidia GeForce 8800 GTS, одна из которых является прямым конкурентом AMD Radeon X1950 XTX, а другая предназначена для сектора производительных массовых карт стоимостью $299. Что же мы можем сказать, располагая результатами игровых тестов?

Старшая модель, имеющая официальную стоимость $449, показала себя с хорошей стороны, если говорить о производительности. В большинстве тестов GeForce 8800 GTS опередил AMD Radeon X1950 XTX и лишь в отдельных случаях показал равную производительность с решением AMD и отставание от двухпроцессорного тандема GeForce 7950 GX2. Впрочем, учитывая исключительно высокую производительность GeForce 8800 GTS 640MB, мы не стали бы однозначно сравнивать его с продуктами предыдущего поколения: они не поддерживают DirectX 10, при этом у GeForce 7950 GX2 значительно худшее качество анизотропной фильтрации, и потенциальные проблемы, вызванные несовместимостью той или иной игры с технологией Nvidia SLI.

GeForce 8800 GTS 640MB можно уверенно назвать лучшим решением в ценовом диапазоне $449-$499. Однако, стоит отметить, что новое поколение продуктов Nvidia всё еще не вылечилось от детских болезней: в Call of Juarez всё еще наблюдаются мерцающие тени, а Splinter Cell: Double Agent , хотя и работает, но требует особого запуска на драйверах версии 97.94. По крайней мере, до появления на рынке карт на базе графического процессора AMD нового поколения у GeForce 8800 GTS есть все шансы занять подобающее ему место "лучшего ускорителя стоимостью $449". Тем не менее, перед приобретением GeForce 8800 GTS мы бы рекомендовали прояснить вопрос совместимости нового семейства Nvidia с вашими любимыми играми.

Новая GeForce 8800 GTS 320MB за $299 также является весьма неплохим приобретением за свои деньги: поддержка DirectX 10, высококачественной анизотропной фильтрации и не неплохой уровень производительности в типичных разрешениях – лишь некоторые преимущества новинки. Таким образом, если вы планируете играть в разрешениях 1280х1024 или же 1600х1200, GeForce 8800 GTS 320MB является отличным выбором.

К сожалению, весьма перспективная с технической точки зрения карта, отличающаяся от более дорогой версии только объемом видеопамяти, порой серьезно уступает GeForce 8800 GTS 640MB не только в играх с высокими требованиями к объему видеопамяти, таких, как Serious Sam 2 , но и там, где ранее разница в производительности карт с 512 и 256 МБ памяти не фиксировалась. В частности, к таким играм относятся TES IV: Oblivion, Neverwinter Nights 2, F.E.A.R. Extraction Point и некоторые другие. С учетом того, что 320 МБ видеопамяти однозначно больше, нежели 256 МБ, проблема явно связана с ее неэффективным распределением, но, к сожалению, мы не знаем, обусловлено ли оно недоработками в драйверах или чем-либо еще. Тем не менее, даже с учетом вышеописанных недостатков, GeForce 8800 GTS 320MB выглядит значительно привлекательнее GeForce 7950 GT и Radeon X1950 XT, хотя последние с появлением этого видеоадаптера неизбежно будут терять в цене.

Что касается MSI NX8800GTS-T2D640E-HD-OC, то перед нами продукт с хорошей комплектацией, отличающийся от референсной карты Nvidia не только упаковкой, аксессуарами и наклейкой на кулере. Видеоадаптер разогнан производителем и в большинстве игр обеспечивает заметный прирост производительности по сравнению со стандартным GeForce 8800 GTS 640MB. Конечно, до уровня GeForce 8800 GTX ему не дотянуться, но дополнительные fps никогда не бывают лишними. По всей видимости, эти карты проходят тщательный отбор на способность работать на повышенных частотах; по крайней мере, наш экземпляр показал достаточно хорошие результаты в области разгона и не исключено, что большинство экземпляров NX8800GTS OC Edition способны неплохо разгоняться сверх того, что уже сделано производителем.

Отдельной похвалы заслуживает наличие в комплекте двухдискового издания Company of Heroes, считаемой многими игровыми обозревателями лучшей стратегической игрой года. Если вы всерьез нацелены на покупку GeForce 8800 GTS, то данный продукт MSI имеет все шансы стать вашим выбором.

MSI NX8800GTS-T2D640E-HD-OC: достоинства и недостатки

Достоинства:

Повышенный уровень производительности в сравнении с эталонным GeForce 8800 GTS
Высокий уровень производительности в высоких разрешениях при использовании FSAA





Низкий уровень шума
Хороший разгонный потенциал
Хорошая комплектация

Недостатки:

Недостаточно отлаженные драйверы

GeForce 8800 GTS 320MB: достоинства и недостатки

Достоинства:

Высокий уровень производительности в своем классе
Поддержка новых режимов и методов сглаживания
Великолепное качество анизотропной фильтрации
Унифицированная архитектура с 96 шейдерными процессорами
Задел на будущее: поддержка DirectX 10 и Shader Model 4.0
Эффективная система охлаждения
Низкий уровень шума

Недостатки:

Недостаточно отлаженные драйверы (проблема с распределением видеопамяти, низкая производительность в некоторых играх и/или режимах)
Высокий уровень энергопотребления

Для начала NVIDIA установила G80 на 2 видеокарты: GeForce 8800 GTX и GeForce 8800 GTS.

Спецификации видеокарт серии GeForce 8800
GeForce 8800 GTX GeForce 8800 GTS
Кол-во транзисторов 681 млн. 681 млн.
Частота ядра (включая распределитель, текстурные блоки, блоки ROP) 575 МГц 500 МГц
Частота шейдеров (потоковых процессоров) 1350 МГц 1200 МГц
Кол-во шейдеров (потоковых процессоров) 128 96
Частота памяти 900 МГц (эффективная 1.8 ГГц) 800 МГц (эффективная 1,6 ГГц)
Интерфейс памяти 384 бит 320 бит
Пропускная способность памяти (ГБ/с) 86,4 ГБ/с 64 ГБ/с
Кол-во ROP блоков 24 20
Объем памяти 768 МБ 640 МБ

Как видите, количество транзисторов у GeForce 8800 GTX и 8800 GTS одинаковое, это потому, что это абсолютно одинаковые GPU G80. Как уже было сказано, основное отличие этих вариантов GPU – 2 отключенных банка потоковых процессоров – всего 32 шейдера. При этом число рабочих шейдерных блоков со 128 у GeForce 8800 GTX уменьшено до 96 у GeForce 8800 GTS. Также NVIDIA отключила 1 ROP (блок растеризации).

Частоты ядер и памяти у этих видеокарт также немного отличаются: частота ядра GeForce 8800 GTX - 575 МГц, у GeForce 8800 GTS – 500 МГц. Шейдерные блоки GTX работают на частоте 1350 МГц, GTS – 1200 МГц. У GeForce 8800 GTS NVIDIA также использует более узкий 320-битный интерфейс памяти и 640 МБ более медленной памяти, которая работает на частоте 800 МГц. У GeForce 8800 GTX 384-битный интерфейс памяти, 768 МБ памяти / 900 МГц. И, конечно, совсем другая цена.

Сами по себе видеокарты сильно отличаются:


Как видно на этих фотографиях, референс-платы GeForce 8800 черные (впервые для NVIDIA). С модулем охлаждения GeForce 8800 GTX и 8800 GTS – двуслотовые. GeForce 8800 GTX немного длиннее, чем GeForce 8800 GTS: её длина – 267 мм, против 229 мм у GeForce 8800 GTS, и, как было заявлено ранее, у GeForce 8800 GTX 2 PCIe разъема питания. Зачем 2? Максимальное энергопотребление GeForce 8800 GTX – 177 Вт. Однако в NVIDIA говорят, что это может быть только в крайнем случае, когда все функциональные блоки GPU будут максимально загружены, а в обычных играх при тестировании видеокарта потребляла в среднем 116 - 120 Вт, максимум – 145 Вт.

Так как каждый внешний разъём питания PCIe на самой видеокарте рассчитан максимум на 75 Вт, и слот PCIe тоже рассчитан максимум на 75 Вт, то 2-х этих разъемов буден недостаточно для подвода 177 Вт, поэтому пришлось сделать 2 внешних разъёма питания PCIe. Добавив второй разъём, NVIDIA обеспечила 8800 GTX солидный запас мощности. Кстати, максимальное энергопотребление у 8800 GTS – 147 Вт, так что она может обойтись и одним разъёмом питания PCIe.

Другая особенность, добавленная в дизайн референсной платы GeForce 8800 GTX – второй разъём SLI – впервые для GPU NVIDIA. NVIDIA о назначении второго разъёма SLI официально ничего не сообщает, но журналистам удалось получить от разработчиков такую информацию: “Второй разъём SLI у GeForce 8800 GTX предназначен для аппаратной поддержки возможного расширения SLI конфигурации. С текущими драйверами используется только один разъём SLI. Пользователи могут подключать SLI мост, как на первые, так и на вторые контактные группы”.

Основываясь на этом, и том, что материнские платы nForce 680i SLI выпускаются с тремя слотами PCI Express (PEG), можно прийти к выводу, что в ближайшем будущем NVIDIA планирует осуществить поддержку трех SLI-видеокарт. Ещё одним вариантом может быть увеличение мощности для SLI физики, но это не объясняет, почему GeForce 8800 GTS не имеет второго разъёма SLI.

Можно предположить, что NVIDIA, резервирует свою GX2 “Quad SLI” технологию для менее мощной видеокарты GeForce 8800 GTS, в то время как более мощная GeForce 8800 GTX будет работать в тройной SLI конфигурации.

Если Вы помните, оригинальные Quad SLI видеокарты NVIDIA по своим характеристикам ближе к GeForce 7900 GT, чем к GeForce 7900 GTX, так как у видеокарт 7900 GT более низкое энергопотребление / тепловыделение. Вполне естественно предположить, что NVIDIA пойдет по тому же пути и в случае с GeForce 8800. Геймеры с материнскими платами с тремя PEG слотами смогут увеличить быстродействие графической подсистемы, собрав тройную SLI 8800 GTX конфигурацию, что в некоторых случаях даст им лучшую производительность, чем Quad SLI система, если судить по характеристикам 8800 GTS.

Повторимся, что это всего лишь предположение.

Блок охлаждения у GeForce 8800 GTS и 8800 GTX сделан двуслотовым, каналированным, выводящим горячий воздух от GPU за пределы корпуса компьютера. Радиатор охлаждения состоит из большого алюминиевого радиатора, медных и алюминиевых тепловых трубок и медной пластины, которая прижимается к GPU. Вся эта конструкция обдувается большим вентилятором радиального типа, который смотрится немного пугающе, но на самом деле работает довольно тихо. Система охлаждения 8800 GTX похожа на систему охлаждения 8800 GTS, только у первой немного длиннее радиатор.


В общем, новый кулер справляется с охлаждением графического процессора довольно хорошо, и при этом почти бесшумный – как у видеокарт GeForce 7900 GTX и 7800 GTX 512MB, но GeForce 8800 GTS и 8800 GTX слышно чуть сильнее. В некоторых корпусах, чтобы услышать шум от вентилятора видеокарт, нужно будет хорошо прислушаться.

Производство

Всё производство GeForce 8800 GTX и 8800 GTS осуществляется по контракту NVIDIA. Это означает, что купите ли Вы видеокарту ASUS, EVGA, PNY, XFX или любого другого производителя, все они изготовлены одной компанией. NVIDIA даже не позволяет производителям разгонять первые партии видеокарт GeForce 8800 GTX и GTS: они все поступают в продажу с одинаковыми тактовыми частотами независимо от производителя. Но им разрешается устанавливать свои системы охлаждения.

Например, компания EVGA уже выпустила свою версию e-GeForce 8800 GTX ACS3 Edition со своим уникальным кулером ACS3. Видеокарта ACS3 спрятана в едином большом алюминиевом коконе. На нем нанесены буквы E-V-G-A. Для дополнительного охлаждения на тыльной стороне видеокарты EVGA разместила дополнительный радиатор, прямо напротив GPU G80.

Помимо охлаждения, изготовители первых видеокарт GeForce 8800 могут индивидуализировать свои изделия только гарантийными обязательствами и комплектацией – игры и аксессуары. Например, компания EVGA комплектует свои видеокарты игрой Dark Messiah, видеокарта GeForce 8800 GTS BFG продается с футболкой BFG и ковриком для мышки.

Интересно будет посмотреть, что будет дальше – многие партнеры NVIDIA полагают, что для последующих выпусков видеокарт GeForce 8800 ограничения NVIDIA будут не такими жесткими, и они смогут соревноваться в разгоне.

Так как все видеокарты сходят с одного конвейера, то все GeForce 8800 поддерживают 2 разъёма dual-link DVI и HDCP. Кроме того, стало известно, что NVIDIA не планирует менять объем памяти у GeForce 8800 GTX и GTS (например, 256 МБ GeForce 8800 GTS или 512 МБ 8800 GTX). По крайней мере, пока стандартная конфигурация для GeForce 8800 GTX – 768 МБ, а GeForce 8800 GTS – 640 МБ. У NVIDIA нет также планов делать AGP версию видеокарт GeForce 8800 GTX/GTS.

Драйвер для 8800

NVIDIA сделала несколько изменений в драйвере GeForce 8800, о которых нужно непременно сказать. Прежде всего, убрана традиционная утилита разгона Coolbits, вместо неё – NVIDIA nTune. То есть, если Вы хотите разогнать видеокарту GeForce 8800, нужно будет скачать утилиту nTune. Вероятно, это хорошо для обладателей материнских плат на чипсете nForce, так как утилиту nTune можно использовать не только для разгона видеокарты, но и для конфигурации системы. В противном случае, те, например, кто успел сделать апгрейд до Core 2 и имеет материнскую плату с чипсетом 975X или P965, для разгона видеокарты должны будут скачать 30 МБ приложение.

Другое изменение у нового драйвера, на которое мы обратили внимание – нет опции перехода к классической панели управления NVIDIA. Хочется верить, что NVIDIA вернет эту функцию в свой видеодрайвер, так как она нравилась многим, в отличие от нового интерфейса панели управления NVIDIA.