NVIDIA наносит превентивный удар. Игровые тесты: Painkiller: Battle out of Hell. Игровые тесты: F.E.A.R. Multiplayer Beta

Хорошо помню свое первое знакомство с ускорителями трехмерной графики. У одного из отцовских знакомых на компьютере глючили и упорно не желали запускаться какие-то программы - и меня попросили с этой проблемой разобраться. Корень зла, как вскоре выяснилось, крылся в недавно приобретенной крутейшей по тем временам плате Voodoo 2, а «программами» оказались Quake 2 и еще какие-то игрушки: худо-бедно разобраться с ними удалось методом научного тыка, особого интереса они для меня все равно не представляли. Но в комплекте к «Вуду» шел еще небольшой набор демонстрационных программок - и вот они казались чем-то фантастическим, невозможным, нереальным. Хотелось бросить все, наскрести необходимые для покупки 300 долларов, которые тогда этот ускоритель стоил, и немедленно поставить в свою машину такое же чудо.

С тех пор прошло немало лет и сменилось немало поколений ускорителей трехмерной графики. Демки, показывающие преимущества той или иной видеокарты, год от года становились все красивее и красивее (и добрались уже до якобы кинематографического качества), однако ощущение чуда, которое сопутствовало той самой, первой демонстрации, - уже не повторялось. Романтическая эпоха, когда каждый новый ускоритель был знаменательным событием, а на тематических форумах бушевали яростные споры фанатов той или иной графической компании, ушла в прошлое, и ушла, наверное, окончательно и бесповоротно. Видеокарта ли от ATI, видеокарта ли от nVidia - единственных по-настоящему выживших в те годы игроков этого рынка, - разница между ними сегодня сводится лишь к малозаметным отличиям в качестве получаемой картинки, уровне шума да производительности в приложениях. Быть может, ускорители будущего и новые поколения графических движков этот тезис опровергнут, а пока - рассмотрим очередной «сугубо эволюционный» продукт «игровой» индустрии.

Конфигурация тестового стенда:

процессор: AMD Athlon 64 FX 57 2,8 ГГц (200x14);

материнская плата: ASUS A8N SLI Deluxe;

оперативная память: 2x512 Кбайт Patriot XBLK (2-2-2-10);

жесткий диск: 2xWD Raptor 74 Гбайт, 10000 об./мин., RAID 0;

операционная система: Microsoft Windows XP SP2;

драйверы: последние официальные на момент написания статьи.

GeForce 6800 + восемь пиксельных конвейеров = ?

Кодовое название нового графического чипа nVidia - G70, «принципиально новое» для компании… и не несущее практически никакой информационной нагрузки. Однако если заглянуть в прошлое, выяснится, что вплоть до последнего момента (когда компания вдруг отказалась от традиционной маркировки своих чипов кодами NVxx) GPU GeForce 7800 именовался иначе - NV47. По принятой в nVidia схеме это означает, что GPU архитектурно относится к тому же поколению NV4x, что и чипы семейства GeForce 6xxx (напомню, что GeForce FX - это семейство NV3x; GeForce 3 и 4 - семейство NV2x; а GeForce 1 и 2 - семейство NV1x). Так что ничего принципиально новаторского в новом кристалле мы не увидим: перед нами все тот же классический GPU поколения DirectX 9.0c, поддерживающий шейдеры третьей версии (Shader Model 3.0), эдакий доработанный GeForce 6800 Ultra. Но что же тогда изменилось по сравнению с предыдущим поколением?

Во-первых, в полтора раза увеличилось количество пиксельных конвейеров - с 16 до 24. Уже одно это должно было при прочих равных увеличить теоретическую производительность G70 относительно NV40 примерно в полтора раза; однако инженеры nVidia пошли еще дальше и повысили производительность каждого отдельно взятого конвейера, добавив к каждому стандартному векторному ALU «вспомогательное» упрощенное ALU, способное одновременно с «главным» выполнять некоторые простые операции. Такая схема позволяет, например, выполнять на конвейерах 7800GTX весьма популярную в шейдерах операцию MAD (Multiply Add, поэлементное умножение двух 4-компонентных векторов с прибавкой к полученному вектору третьего вектора) за один такт, а не за два. И это лишь одна из довольно большого числа ситуаций, когда за счет переноса некоторых операций на «упрощенные» ALU удается достичь двукратного прироста производительности. Инженеры nVidia говорят о полуторакратном (в среднем) приросте производительности на каждый пиксельный конвейер. Вкупе с полуторакратным же приростом числа пиксельных конвейеров получается, что предполагаемая пиковая производительность G70 более чем вдвое выше, нежели у предыдущего флагмана nVidia - NV40, и, похоже, именно это дало основание разработчикам заявить, что 7800GTX будет более быстрым решением, чем пара GeForce 6800 Ultra, работающих в режиме SLI. Кстати, 7800GTX тоже поддерживает технологию SLI.

Во-вторых, увеличилось число вершинных конвейеров (с 6 до 8), и была немного поднята тактовая частота ядра. Причем полной неожиданностью стало то, что в G70 тактовых частот теперь несколько: пиксельные и вершинные конвейеры тактируются раздельно и функционируют асинхронно[Строго говоря, в GPU этих частот даже не две, а три: в отличие от предыдущих поколений, G70 использует еще и «более независимые» блоки пиксельных операций (ROP). Они выполняют такие «вспомогательные» операции, как блендинг, z-тест на отсечение невидимых пикселов, вычисление итогового цвета при антиалиасинге и запись «готового продукта» в видеопамять и фрейм-буфер акселератора. У большинства предыдущих ускорителей Nvidia было по одному блоку ROP на пиксельный конвейер; в G70 компания отошла от этой традиции и поставила 16 ROP, подключающихся через специальный быстродействующий «свитч», при 24 пиксельных конвейерах. Тактовая частота ROP сегодня совпадает с тактовой частотой пиксельных конвейеров, однако в последующих поколениях GPU и даже в последующих вариациях G70 ситуация может измениться]. «Основная» тактовая частота, на которой работают пиксельные конвейеры, составляет 430 МГц; «вторая основная», на которой работают вершинные конвейеры, - 470 МГц. Сводя эти данные воедино, получаем, что теоретически GeForce 7800GTX должен примерно в 2,42 раза (!) по «пиксельной» и 1,57 раза по «вершинной» производительности превосходить 6800 Ultra. Совсем неплохо для «старой» архитектуры, не правда ли? И это еще не предел: судя по названию и поразительно удачным оверклокерским экспериментам[В нашей тестовой лаборатории мы разогнали 7800GTX до частот 500/1320 МГц], nVidia может выпустить заметно более быструю GeForce 7800 Ultra[Еще одна интересная особенность G70: пиксельные конвейеры тактируются не как бог на душу положит, а с шагом 27 МГц. К примеру, 16x27 = 432 МГц, базовая частота 7800 GTX. Тактовые частоты пиксельных конвейеров свеженькой GeForce 7800GT составляют 15x27 = 405 МГц. Резонно предположить, что тактовая частота пиксельных конвейеров «Ультры», буде она появится, будет не меньше 17x27 = 459 (460), а то и 486 (490) МГц].

В-третьих, слегка возросла производительность оперативной памяти. G70 работает с 256-разрядной шиной памяти стандарта GDDR3, причем на ускорители 7800GTX рекомендовано устанавливать модули с частотой передачи данных 1200 МГц (у NV40 aka GeForce 6800 Ultra - 1100 МГц). Поскольку существуют и более быстрые микросхемы памяти, вполне возможно, что некоторые производители со временем выпустят и «оверклокерские» варианты 7800GTX, снабдив их, скажем, чипами с временем выборки 1,4 нс (частоты до 1400 МГц)[Именно такую память планируется использовать в R520 - асимметричном ответе канадской ATI на рассматриваемые сегодня новинки от Nvidia]. Кстати, оперативной памяти на плату теперь можно устанавливать аж до гигабайта. Общение с «системной» оперативной памятью и чипсетом осуществляется исключительно по шине PCI-Express x16 (скорее всего, переходник HSI больше использоваться не будет).

В-четвертых, nVidia добавила в G70 блок аппаратного ускорения воспроизведения HDTV-видео (видео высокого разрешения), включая ускорение обработки сигнала, сжатого кодеками MPEG-2, а также WMV-HD- и H.264-сигнала. Прибавьте сюда аппаратный деинтерлейсинг, аппаратное масштабирование картинки и цветовую коррекцию - и получится nVidia PureVideo, совсем небесполезная в свете скорого выхода HD-DVD- и Blu-Ray-приводов фича. Для вывода «высокого» видео на телевизор в G70, помимо обычного TV-out, встроен специальный HDTV-out. Поддержка двух независимых выходов на монитор (VGA или DVI-I), разумеется, сохранилась.

В-пятых, изменилась технология изготовления GPU. Если NV40 выпускались на основе 130-нм техпроцесса, то G70 производится на мощностях тайваньской TSMC по более компактному (примерно на 40%) 110-нанометровому. Правда, возросла и сложность чипа (302 млн. транзисторов!), так что кристалл G70 получился даже более крупным, а значит, и более дорогим, нежели NV40. Несмотря на резко возросшую сложность и слегка увеличенные тактовые частоты, энергопотребление платы на GeForce 7800GTX не превышает «скромные» 110 Вт. В итоге для системы с одной платой рекомендованы блоки питания мощностью всего 350 Вт (сравните с 480 Вт для 6800 Ultra!). SLI-системам подойдут типовые БП на 500 Вт против нереальных 600 Вт (и выше), кои требует 6800 Ultra.

Наконец, в G70 реализован новый гибридный режим полноэкранного сглаживания - TAA (Transparent AntiAliasing), позволяющий получать качественную картинку с меньшими потерями производительности (подробности - во врезке).

*** Практика: Reference GeForce 7800GTX

В нашу тестовую лабораторию попал типовой экземпляр GeForce 7800GTX - референс-плата от самой Nvidia. В продажу они, разумеется, не пойдут, однако платы других производителей едва ли будут отличаться от референса чем-то, кроме системы охлаждения да повышенных тактовых частот графического процессора и видеопамяти на единичных экземплярах[Собственно, получается так потому, что для топовых ускорителей и ATI, и Nvidia, как правило, продают не столько графические чипы, сколько почти полностью собранные «полуфабрикаты» видеокарт. Поскольку «топов» продается относительно немного, а прибыль они приносят огромную (до 40% от общего дохода компаний!), такая тактика не вызывает серьезных производственных проблем, одновременно гарантируя, что топовые акселераторы заведомо не будут иметь проблем с некачественной разводкой или неудачной технологией производства. Так что можете смело покупать какой-нибудь Palit или даже noname: от брэндового ASUSTeK’а, который на $50-100 дороже, их будет отличать только более скромный набор прилагающегося ПО да, возможно, «менее оверклокерский» радиатор]. Так что все нижесказанное можно смело распространять на большинство видеокарт 7800GTX.

Итак, референс. Первое, что бросается в глаза, - это очень скромные размеры ускорителя. Стандартные 10 см ширины - чуть больше, чем у 6800 Ultra и X800/X850, но все же приемлемо для Hi-End-ускорителей. А вот высота новинки «нестандартна»: видеокарта по высоте занимает всего один слот расширения, а не ставшие уже привычными два или три.

Видеовыходы - два коннектора DVI-I (переходник на привычный D-Sub, очевидно, прилагается); есть TV-out и TV-in, совмещенные в 11-штырьковом коннекторе. TV-in реализован на чипе Philips SAA7115HL; TV-out совмещен с HDTV-out. Видеопамять (256 Мбайт), в отличие от 256-мегабайтных вариантов GeForce 6800, установлена по обеим сторонам видеокарты, причем предусмотрены посадочные места для вдвое большего числа микросхем памяти (G70, напомню, может иметь до 1 Гбайт видеопамяти); память с двух сторон охлаждается алюминиевыми радиаторами.

Очень сильно по сравнению с GeForce 6800 переработана схема питания графического процессора - видимо, более тонкий технологический процесс привел не только к резкому снижению энергопотребления G70, но и существенно повысил требования к схемам питания. Именно из-за увеличившихся размеров VRM видеокарта и получилась более длинной. Критичные к охлаждению компоненты схемы питания закрыты внушительных размеров алюминиевым радиатором.

Для тестирования мы постарались взять новейшие и трудные для современных ускорителей игры. Результаты тестирования производительности приведены в таблице.

Даже беглого взгляда достаточно, чтобы сказать: GeForce 7800GTX - безоговорочный лидер по производительности.

Преимущество над GeForce 6800 Ultra составляет в среднем 41-45% (с включенным/выключенным четырехкратном антиалиасингом); преимущество над более быстрым (на 8-12%) Radeon X850 Platinum Edition - в среднем 27-30%, причем выигрыш имеет место на всех тестах, в том числе и на горячо любимом канадцами Half-Life 2. В общем-то не так уж и много, но и немало, если принять во внимание далеко не идеальную масштабируемость современных игр[У наших коллег из других изданий цифры получились чуть больше - порядка 35-40%]. Тем более что особенно большое преимущество 7800GTX наблюдается в самых тяжелых тестах - буквально только что вышедших Battlefield 2 (на 70%) и SplinterCell 3 (почти двукратный отрыв). Во всех тестах (включая режим 1600x1200 4x FSAA) видеокарта 7800GTX показала скорость рендеринга не менее 50 fps (то есть заведомо играбельную). Без антиалиасинга результаты повыше: не менее 70 fps; средние потери производительности от включения AA - 28%.

На удивление эффективно работает режим SLI: при установке двух видеокарт удается выжать из 7800GTX еще 27-37%. При этом преимущество GeForce 7800GTX SLI над «радеонами» доходит до 120% (!) - и наверстать столь солидное отставание ATI будет ой как непросто. Вероятнее всего запоздавший на полгода R520, работающий на частотах до 600-700 МГц, но снабженный всего шестнадцатью пиксельными конвейерами[Которые вдобавок вроде бы поддерживают непонятно как сказывающиеся на их производительности шейдеры третьей версии (а по истории с GeForce FX хорошо известно, что реализация обязательных для SM3 динамических переходов в шейдерах, может замедлять работу акселератора едва ли не в разы)], сумеет-таки догнать GeForce 7800GTX, а наконец-то появившаяся у ATI поддержка технологии CrossFire (альтернатива SLI) позволит «сравнять счет» и в парных конфигурациях. Однако солидное тепловыделение (уже известно, что кулер для R520 будет «двухэтажный»), шум, высокая цена (той же 1400-МГц памяти), скорее всего, сохранят небольшой перевес за продуктами Nvidia. Очень жаль, что из-за отсутствия R520 и CrossFire проверить эти предположения мы не можем.

Зато можем уверенно сказать, что благодаря низкому тепловыделению, небольшому шуму, а главное, цене (в Москве - порядка $580!!!) GeForce 7800GTX - очевидный хит сезона. Редчайший случай - придраться здесь действительно не к чему.

Прозрачный антиалиасинг

Антиалиасинг - это способ повышения качества выстраиваемого 3D-ускорителем изображения, позволяющий избавиться от эффекта ступенчатости границ полигонов. Дело в том, что если для «внутренних» пикселов цвет каждого из них обычно вычисляется с учетом нескольких субпикселов соответствующей текстуры, натянутой на полигон (анизотропная, трилинейная или билинейная фильтрация) и дающей плавную и более или менее точную и резкую картинку (чем выше степень анизотропной фильтрации, тем выше точность и резкость изображения), то без использования антиалиасинга каждый пиксел в картинке может «принадлежать» одному и только одному полигону, хотя в действительности часть пиксела относится к одному полигону, а часть - к другому, и его цвет должен определяться как некоторая смесь цветов обоих полигонов. В итоге каждое ребро полигона рисуется как характерная, резко очерченная ступенчатая (а зачастую и вовсе прерывистая, если рисуется, скажем, тонкий полигон, изображающий в сцене далеко расположенные провод, кабель или веревку) линия. Если вы еще не сталкивались ни с чем подобным, сравните, как рисуют линии MS Paint и Adobe Photoshop, - и вы поймете, что я имею в виду. Эта ступенчатость и есть алиасинг; а методы борьбы с нею соответственно называются антиалиасингом.

На сегодняшний день существуют два способа полноэкранного сглаживания - суперсэмплинг (SuperSampling AntiAliasing, SSAA) и мультисэмплинг (MultiSampling AntiAliasing, MSAA). В первом случае для того, чтобы на картинке, которую генерирует ускоритель, не было резких цветовых переходов между полигонами, картинка, грубо говоря, вначале рендерится с размерами, в несколько раз превышающими необходимые для вывода на экран, а затем приводится к требующемуся размеру. При этом для определения цвета каждого «итогового» пиксела вычисляется цвет нескольких составляющих его «субпикселов», и картинка получается более реалистичной, а главное - лишенной бросающихся в глаза ступенчатых линий. Однако SSAA - довольно жадный до ресурсов метод, поэтому куда чаще используется MSAA, при котором сглаживаются только те пикселы, которые находятся в непосредственной близости от граней полигонов, присутствующих в сцене. Если мы рисуем на экране, скажем, кубик, то в «подробном» варианте будут рассчитаны только несколько процентов пикселов, составляющих ближайшие окрестности ребер кубика. Поскольку именно здесь, как правило, и встречаются требующие сглаживания ступеньки, то производительность при таком способе рендеринга падает несильно, и качество картинки получается высоким.

Конечно, и у MSAA есть недостатки: зачастую дизайнеры сцен предпочитают не плодить в ней множество полигонов, а использовать разнообразные прозрачные текстуры. Всяческие стекла, зеркала и прозрачная вода не в счет: речь идет о куда более «приземленных» и очень часто встречающихся листьях деревьев (на одном полигоне простой формы рисуется один или несколько листьев сложной формы) и всевозможных решетках (на паре полигонов рисуется изображение решетки). Края таких «граней» MSAA, естественно, обработать не в состоянии - он о них попросту не догадывается.

Решение Nvidia напрашивается само собой: использовать сглаживание не только вблизи граней, но и внутри прозрачных и полупрозрачных полигонов. Кроме того, поддерживается такая модная сегодня фича, как антиалиасинг с повернутой решеткой - когда субпикселы при сглаживании берутся не из более мелкой решетки, полученной разбиением стандартной «пиксельной решетки» вертикальными и горизонтальными линиями на одинаковые субпикселы, а из мелкой сетки, повернутой относительно горизонтали на некоторый угол (обычно 20-30°). Этот способ дает лучшие результаты при отображении близких к горизонтальным и вертикальным линий, для которых эффекты алиасинга особенно заметны. Текущие драйверы, правда, слегка глючат при определении полупрозрачных полигонов (сглаживается не все, что нужно), однако надо полагать, что вскоре эти мелкие недочеты будут исправлены.

Благодарим компанию IT-Labs за предоставленный образец видеокарты nVidia 7800GTX.


В начале октября между ATI и NVIDIA разгорелась очередная жестокая битва - видеоадаптер нового поколения, RADEON X1800 XT 512MB, созданный "красной" командой, вступил в смертельный бой с GeForce 7800 GTX, до этого безраздельно царствовавшим более трех месяцев. ATI Technologies удалось выиграть эту битву, и в очередной раз отвоевать корону лидерства, но надолго ли? Сегодня мы расскажем, изменилось ли соотношение сил в "Высшей Лиге 3D" с выходом в свет очередной новинки NVIDIA – GeForce 7800 GTX 512 .

Вступление

Хотя доля графических карт высшего класса в общем объеме продаж крайне невелика, и не превышает нескольких процентов, роль этих продуктов чрезвычайно важна. По сути, они являются символами технологического первенства компаний-разработчиков, олицетворяющими способность создавать наиболее передовые решения, обладающие непревзойденными возможностями. Неудивительно, что именно в этом секторе между ATI Technologies и NVIDIA Corp. всегда кипит наиболее ожесточенная борьба – не на жизнь, а на смерть. В результате этой конкуренции, в лабораториях ведущих разработчиков постоянно рождаются новые продукты, выводящие качество трехмерной графики на недосягаемый ранее уровень, и прогресс в области 3D, таким образом, не стоит на месте.

2005 год вполне можно назвать годом NVIDIA, и это не будет слишком большим преувеличением. Компания не только смогла создать самый мощный видеоадаптер, GeForce 7800 GTX, процарствовавший на рынке потребительского 3D около квартала в гордом одиночестве, но и обеспечить массовые поставки этих карт. Позднее, компания еще более укрепила свои позиции в секторе высокопроизводительных решений, пополнив линейку карт на базе G70 удачной во всех отношениях моделью GeForce 7800 GT.

Объединенная мощь 24 пиксельных процессоров G70 казалась непоколебимой, но ATI Technologies в это время в спешном порядке завершала работы над своим "оружием возмездия" - графическим процессором R520. После нескольких переделок нового GPU, компании удалось добиться устойчивой работы на невиданной до этого тактовой частоте – 625 МГц. 5 октября 2005 года "час Х" наступил, и ATI нанесла ответный удар, анонсировав целую линейку графических процессоров нового поколения под общим названием RADEON X1000. На базе старшей модели, R520, было представлено 2 видеоадаптера – RADEON X1800 XL и RADEON X1800 XT 512MB.

Последний получился настоящим чудовищем: помимо того, что его графический процессор работал на частоте 625 МГц, видеоадаптер нес на борту 512 МБ памяти с частотой 750 (1500) МГц – также невиданная ранее скорость. Хотя R520 проигрывал G70 по числу пиксельных процессоров (16 против 24), но сверхвысокие частоты и новая архитектура обеспечили RADEON X1800 XT 512MB победу NVIDIA GeForce 7800 GTX. Хотя эта победа была не абсолютной, но звание "Короля 3D" все же перешло от GeForce 7800 GTX к RADEON X1800 XT 512MB, и, формально, NVIDIA утратила технологическое лидерство.

Сегодня NVIDIA нанесла ответный удар, пополнив линейку GeForce 7800 GTX новой моделью, GeForce 7800 GTX 512. По сравнению с GeForce 7800 GTX, она оснащена 512 МБ видеопамяти, а тактовые частоты составляют 550 МГц для GPU и 850 (1700) МГц для памяти. Рекомендуемая цена новинки находится на уровне $649. Главное назначение продукта – доказать первенство NVIDIA в классе графических карт высшего класса и вернуть компании корону лидера.

Удался ли ответный ход NVIDIA? На этот вопрос мы ответим в конце сегодняшнего обзора, подведя итоги по игровым тестам, а пока давайте рассмотрим новинку в лице GeForce 7800 GTX 512 с близкого расстояния.

NVIDIA GeForce 7800 GTX 512: дизайн PCB

На первый взгляд, найти отличия в дизайне печатной платы (PCB) между GeForce 7800 GTX и GeForce 7800 GTX 512 не так-то просто – огромная двухслотовая система охлаждения, позаимствованная у NVIDIA Quadro FX 4500, закрывает собой практически всю площадь PCB:


Тем не менее, отличия есть, и весьма существенные. По сути, PCB GeForce 7800 GTX 512 представляет собой значительно модернизированную PCB GeForce 7800 GTX с переработанной и усиленной схемой питания, часть элементов которой отчетливо видна в верхнем правом углу платы. Ни в обычном варианте GeForce 7800 GTX, ни на плате профессионального Quadro FX 4500 этих элементов нет.

Еще больше отличий можно найти, если перевернуть карты. Прежде всего, в глаза бросается масса мелких элементов, буквально усеивающих PCB GeForce 7800 GTX 512 в районе схемы питания, в то время как эта же область в обычном варианте GeForce 7800 GTX "заселена" гораздо менее плотно. Другим важным моментом является отсутствие на обратной стороне PCB чипов памяти и мест для их установки – вся память в новом видеоадаптере NVIDIA установлена на лицевой стороне платы. Следовательно, необходимости в наличии охлаждающей пластины нет, и она отсутствует, как и кронштейн, усиливающий крепление системы охлаждения, которая просто закреплена девятью подпружиненными болтами. Это несколько странно, учитывая значительно возросшие габариты кулера. После его демонтажа нашим глазам предстала следующая картина:


Левые части PCB двух моделей GeForce 7800 GTX практически идентичны, а правые, как мы уже упоминали, отличаются более сложной схемой питания у GeForce 7800 GTX 512. Основные силовые элементы этой схемы по-прежнему прикрыты небольшим прямоугольным радиатором. В обычном варианте GeForce 7800 GTX была предусмотрена возможность установки 512 МБ видеопамяти путем добавления еще восьми чипов GDDR3 емкостью 256 Мбит в 144-контактном корпусе FBGA, но это сделало бы повышение тактовой частоты памяти с 600 (1200) МГц до 850 (1700) МГц невозможным. Не в последнюю очередь и потому, что минимальное время доступа для микросхем серии K4J55323QF составляет 1.25 наносекунды; соответственно, они могут работать лишь на частоте 800 (1600) МГц, к тому же, Samsung не поставляет эти микросхемы массово, а только рассылает образцы.


Для достижения рекордной частоты NVIDIA пошла другим путем, кардинально переработав PCB новинки таким образом, чтобы сделать возможной установку более современных чипов памяти серии K4J52324QC в 136-контактном корпусе FBGA, имеющие вдвое более высокую емкость – 512 Мбит. Модель со временем доступа 1.1 наносекунды, способная работать на частоте 900 (1800) МГц, по-своему уникальна – упоминание о ней пока отсутствует даже на сайте непосредственного производителя: согласно официальным данным, эта линейка чипов GDDR3 также ограничена временем доступа 1.25 наносекунды. Скорее всего, Samsung пока не поставляет столь быструю память в сколько-нибудь массовых количествах, что отчасти объясняет эксклюзивность NVIDIA GeForce 7800 GTX 512. Частота памяти несколько снижена относительно номинала, и составляет 850 (1700) МГц. Возможно, это сделано для повышения стабильности работы NVIDIA GeForce 7800 GTX 512.

Серия K4J52324QC выпускается компанией Samsung в двух вариантах – с индексами ВС и BJ, в нашем случае, на плате установлен второй вариант, имеющий напряжение питания 2.0 Вольта. Поскольку, микросхемы имеют емкость 512 Мбит и организацию 16Mx32, для 512 МБ видеопамяти при 256-битной шине доступа достаточно восьми таких чипов. Пиковая пропускная способность подсистемы памяти нового видеоадаптера NVIDIA весьма внушительна – 54.4 ГБ/сек. Для сравнения, аналогичный показатель ATI RADEON X1800 XT 512MB находится на уровне 48 ГБ/сек. Конечно, огромную роль играет и эффективность контроллера памяти, но все же у нового решения NVIDIA есть впечатляющее преимущество в "чистой" пропускной способности памяти, достигающее 6.4 ГБ/сек.

Что касается термоинтерфейса, то NVIDIA нашла оптимальный вариант уже довольно давно, и, по-видимому, не собирается от него отказываться – перед нами все те же матерчатые подушечки, пропитанные белой термопастой. Они уже неоднократно доказали свою эффективность, обеспечивая хорошую теплопроводность и надежный контакт между чипами памяти и радиатором системы охлаждения. В данном случае, это не просто формальность – память, работающая на заоблачной частоте 850 (1700) МГц, должна потреблять массу энергии, и, соответственно, выделять массу тепла, даже, несмотря на пониженное напряжение питания.

NVIDIA GeForce 7800 GTX 512 – Нерожденный 7800 Ultra

Графический процессор, также представший перед нашими глазами после демонтажа кулера, принес очень интересное открытие:


NVIDIA GEForce 7800 GTX 512NVIDIA GeForce 7800 GTX


Похоже, перед нами не что иное, как GeForce 7800 Ultra, выпуск которого, как известно, был отменен по маркетинговым соображениям. По сути, обычный GeForce 7800 GTX и сейчас уступает в производительности только RADEON X1800 XT 512MB. Данный экземпляр GeForce 7800 Ultra вполне зрелый и имеет ревизию A2, а выпуск его датирован 34 неделей этого года, приходящейся на август.

Можно предположить, что, изначально, G70 разрабатывался, как сверхмощный графический процессор, одновременно и работающий на высокой частоте и имеющий невиданное ранее количество пиксельных процессоров – 24, то есть, NVIDIA заранее подстраховалась на случай возможной неудачи. С мощностью все оказалось в порядке, и чип стал самым быстрым GPU на рынке, но устойчивой работы на частотах от 500 МГц, компании изначально добиться не удалось. Впрочем, проблемой это не стало – даже работая на частотах 430/470 МГц, новинка легко оставляла позади все, что имелось в тот момент на рынке 3D. После внесения изменений в дизайн нового GPU, тактовую частоту удалось довести до планируемых ранее пределов, но необходимости в выпуске GeForce 7800 Ultra так и не возникло, поскольку, даже обычный вариант не имел себе равных среди изделий конкурента, и появление GeForce 7800 Ultra могло бы повредить продажам GeForce 7800 GTX.

Это означает, что NVIDIA располагала графическими процессорами G70 Ultra, без проблем способными работать на частотах свыше 500 МГц достаточно длительное время, и сейчас, образно говоря, достала этот козырь из колоды, чтобы покрыть им ход ATI, выпустившей RADEON X1800 XT 512MB, доказав, тем самым, свое технологическое первенство на рынке потребительской трехмерной графики. Итак, GeForce 7800 GTX 512, фактически, представляет собой возрожденный из небытия GeForce 7800 Ultra. К слову, все блоки графического процессора в GeForce 7800 GTX 512 работают на одинаковой частоте 550 МГц, тогда, как в GeForce 7800 GTX частота пиксельных процессоров и растеризаторов составляла 430 МГц, а вершинных процессоров – 470 МГц.

Система охлаждения GeForce 7800 GTX 512 – наследие Quadro

О системе охлаждения следует рассказать отдельно. Она выглядит очень массивно, и, казалось бы, легко может повредить карту, а ведь NVIDIA даже не установила на обратной стороне PCB традиционную крестообразную усилительную пластину. Но, несмотря на внушительные размеры, система охлаждения оказалась очень легкой; во всяком случае, субъективно ее вес был меньше веса однослотовой системы, которой комплектуется обычная GeForce 7800 GTX.


Столь малая масса обусловлена практически полным отсутствием в конструкции меди. Одним из немногих медных элементов в системе является относительно тонкая пластина, непосредственно контактирующая с поверхностью кристалла GPU через слой густой термопасты серого цвета. Из-за своей густоты термопаста этой марки очень трудно наносится, но зато обеспечивает отличную теплопроводность. Посредством четырех (!) тепловых трубок, также выполненных из меди, но покрытых тонким слоем никеля, тепловой поток отводится от основания и равномерно распределяется по двум наборам тонких ребер, закрепленным на легкой алюминиевой раме и прикрытым прозрачным профилирующим кожухом. Поскольку, ребра выполнены из алюминия, они крепятся к тепловым трубкам посредством опрессовки, а не пайки, но тепловой контакт при этом достигается качественный, во всяком случае, под нагрузкой правый и левый радиаторы нагреваются очень сильно, что говорит о хорошей теплопередаче.


Рама, на которой закреплены все остальные элементы системы охлаждения, имеет выступы в районе чипов памяти, и, как мы уже упоминали, контактирует с ними через волокнистые подушечки, пропитанные термопастой. Она достаточно велика и непосредственно обдувается вентилятором, так что перегрева памяти опасаться не приходится.

Вентилятор, которым укомплектована описываемая система охлаждения, также представляет интерес. Его крыльчатка имеет диаметр 80 миллиметров, то есть, столько же, сколько и у стандартных корпусных вентиляторов. Широкие, плавно изогнутые лопасти говорят о том, что вентилятор оптимизирован для работы на низких оборотах, об этом же свидетельствует значение потребляемого тока – всего 0.13 Ампер. При напряжении питания 12 Вольт, мощность, потребляемая этим вентилятором, составляет всего около полутора Ватт. Поскольку вентилятор имеет осевую конфигурацию, основной воздушный поток, нагнетаемый им, направлен непосредственно вниз, на основание кулера, и лишь оно и наличие профилирующего кожуха вынуждают этот поток расходиться в противоположных направлениях. Часть потока воздуха, идущая влево, охлаждает левый радиатор, и выбрасывается за пределы корпуса ПК, в то время, как противоположная ей часть охлаждает правый радиатор, а также расположенный под ним радиатор силовых элементов схемы питания.

Данная система охлаждения хорошо зарекомендовала себя, будучи установленной на профессиональный видеоадаптер NVIDIA Quadro FX 4500. Справиться с охлаждением GeForce 7800 GTX 512 несколько труднее: графический процессор хотя и работает на примерно такой же частоте, что и в профессиональном варианте, но память вместо 525 (1050) МГц функционирует на частоте 850 (1700) МГц. Несмотря на это, с задачей она справляется успешно. Уровень шума обещает быть весьма низким, но это мы проверим в соответствующей главе нашего обзора.

Как и GeForce 7800 GTX, GeForce 7800 GTX 512 оснащена разъемом MIO, служащим для объединения двух карт в SLI-связку, а также чипом Philips SAA7115HL, наделяющим карту функциями VIVO.

GeForce 7800 GTX 512: битва за Ватты

Разумеется, мы не смогли пройти мимо такого важного параметра GeForce 7800 GTX 512, как энергопотребление. Обычная модель GeForce 7800 GTX при активной работе 3D приложения потребляла около 80 Ватт электроэнергии. Новый продукт NVIDIA работает на более высоких тактовых частотах и имеет вдвое больший объем памяти, поэтому, мы решили выяснить, сможет ли он превзойти планку 100 Ватт и обгонит ли по этому параметру ATI RADEON X1800 XT 512MB, на данный момент являющийся самой "прожорливой" графической картой потребительского класса?

Соответствующие замеры были произведены при помощи специально оборудованного для этой цели стенда со следующей конфигурацией:

Процессор Intel Pentium 4 560 (3.60ГГц, 1МБ L2);
Системная плата Intel Desktop Board D925XCV;
Память PC-4300 DDR2 SDRAM (2x512МБ);
Жесткий диск Samsung SpinPoint SP1213C (Serial ATA-150, буфер 8МБ);
Microsoft Windows XP Pro SP2, DirectX 9.0c.

Для создания нагрузки на GPU использовался третий тест пакета 3DMark05, запускаемый в бесконечном цикле при разрешении 1600х1200 при включенных FSAA 4x и AF 16x. Все измерения производились при помощи цифрового мультиметра Velleman DVM850BL. Этот прибор обладает погрешностью измерений не более 0.5%, чего вполне достаточно для наших целей. В процессе тестирования были получены следующие результаты:


Уровень энергопотребления новинки NVIDIA оказался ниже, чем мы ожидали, и превысил 100 Ватт только в режиме максимального разгона. Значительное повышение тактовых частот и увеличение объема видеопамяти стоило GeForce 7800 GTX 512 лишь 14 дополнительных Ватт, и RADEON X1800 XT 512MB с его 112 Ваттами так и остался единственной картой, потребляющей более 100 Ватт энергии в номинальном режиме. Видимо, не последнюю роль тут сыграло низкое напряжение питания памяти – 1.8 Вольта против 2.0 Вольт у RADEON X1800 XT 512MB.

Также, мы провели замеры потребляемой мощности GeForce 7800 GTX 512 в режиме простоя и в 2D-тестах пакета Futuremark PCMark05. В первом случае было получено значение порядка 29-32 Ватт, в зависимости от запущенных приложений, а вот в PCMark05 энергопотребление возросло до весьма заметных 53.3 Ватт, поскольку, система управления тактовыми частотами карты посчитала, что запущена программа, работающая с трехмерной графикой, и подняла частоту графического процессора с 275 до 550 МГц.

В целом, для столь мощного продукта энергопотребление на уровне менее 100 Ватт является отличным показателем, еще раз подтверждающим весьма удачный дизайн графического процессора G70 и карт на его основе. Будущим владельцам GeForce 7800 GTX 512, конечно, потребуется качественный и дорогой блок питания с номинальной мощностью от 450 Ватт, но при рекомендуемой цене карты $649, они, наверняка, смогут себе позволить себе и соответствующий БП. Энтузиастам multi-GPU, пожелавшим собрать SLI-систему на базе новинки, потребуется раскошелиться на еще более мощный блок питания, способный выдавать в продолжительном режиме мощность порядка 500-550 Ватт и выше.

Шумность, разгон и качество 2D

Система охлаждения GeForce 7800 GTX 512 оказалась практически бесшумной – тихий рокот вентилятора можно было услышать, разве что, в непосредственной близости от работающего стенда – на расстоянии не более 10-15 сантиметров. Поскольку, вентилятор изначально имеет небольшие обороты, система управления его скоростью настроена на максимум во всех трех режимах: 2D, Low Power 3D и Performance 3D. Уменьшать эти значения не имеет никакого смысла, поскольку, карта и так работает бесшумно, а вот привести к ее перегреву такие эксперименты вполне могут. Отметим, что при длительном тестировании, тепловые трубки и радиаторы нагревались весьма значительно, так что наличие дополнительного обдува в корпусе ПК не помешает, хотя и без него система охлаждения, позаимствованная у Quadro FX 4500, со своей задачей вполне справляется.

Разгон подтвердил наше предположение о том, что NVIDIA успешно создала новую ревизию G70, работающую на повышенных частотах. Нам удалось добиться устойчивой работы GPU на частоте 600 МГц при отсутствии дополнительного обдува. Это всего на 25 МГц меньше частоты графического процессора RADEON X1800 XT 512MB, причем, не стоит забывать, что последний производится с использованием 0.09-мкм производственных норм и имеет только 16 пиксельных процессоров против 24 у G70 Ultra. Память успешно достигла своей номинальной частоты – 800 (1900) МГц, и далее разгоняться напрочь отказалась – видимо, частотный потенциал чипов со временем доступа 1.1 наносекунды исчерпан до конца и резервов для разгона при номинальном напряжении питания у этих микросхем просто нет.

Проверка на ступенчатость разгона дала неоднозначные результаты. Как известно, обычный GeForce 7800 GTX разгоняется с шагом в 27 МГц для пиксельных процессоров, и если шаг разгона меньше этой величины, то прироста производительности практически не наблюдается. Совсем иначе дело обстоит с новым видеоадаптером NVIDIA – судя по всему, ему не свойственна дискретность при разгоне, или же шаг разгона иной, нежели 27 МГц. Мы разгоняли графический процессор GeForce 7800 GTX 512 с 550 до 595 МГц с шагом 9 МГц, и на каждой ступени фиксировали результаты при помощи Xbitmark и Marko Dolenc"s Fillrate Tester. В результате, были получены следующие данные:


















По скорости заполнения сцены GeForce 7800 GTX 512 нет равных: это следствие высоких тактотвых частот вкупе с архитектурными особенностями продукта, такими как кэширование. Новинка уступает RADEON X1800 XT 512MB только тогда, когда текстуры не накладываются, а во всех остальных случаях значительно опережает его.


Аналогичная картина наблюдается и в тесте на производительность при исполнении пиксельных шейдеров. Значительный отрыв новой модели GeForce 7800 GTX от старой налицо в случае простых шейдеров. Гораздо меньше разница между двумя вариантами GeForce 7800 GTX в случае отрисовки попиксельного освещения, но даже в этом случае GeForce 7800 GTX 512 вдвое быстрее RADEON X1800 XT 512MB.


GeForce 7800 GTX 512 демонстрирует значительно лучшие результаты, нежели GeForce 7800 GTX, но по-прежнему проигрывает RADEON X1800 XT 512MB при исполнении пиксельных шейдеров, использующих динамическое ветвление, а также многопроходных шейдеров, таких, как 27-Pass Fur. В остальных случаях его производительность значительно выше, нежели та, которую может обеспечить глава семейства RADEON X1000.

Отдельное внимание стоит уделить шейдеру Vertex Noise – GeForce 7800 GTX 512 выполняет его лишь незначительно быстрее, нежели обычный GeForce 7800 GTX, поскольку, разница в частотах вершинных процессов у этих карт не так велика, как разница в частотах пиксельных процессоров, и составляет всего 80 МГц.

В целом, потенциал новой модели GeForce 7800 GTX более чем впечатляющ, и внушает уважение. Посмотрим, насколько хорошо данный видеоадаптер покажет себя в реальных играх.

Игровые тесты: Battlefield 2




Превосходство GeForce 7800 GTX 512 над RADEON X1800 XT 512MB начинает проявляться, начиная с разрешения 1024х768, и в разрешении 1600х1200 достигает 20%. Столь же успешно новинка выступает и в режиме eye candy, хотя контроллер RingBus позволяет старшей модели ATI добиться паритета в самом высоком разрешении. Разгон GeForce 7800 GTX 512 дает определенный эффект, но так как прирост тактовых частот не очень велик, то и увеличение производительности не превышает нескольких процентов.

Игровые тесты: Chronicles of Riddick





В этой игре, работающей с API OpenGL, даже обычный GeForce 7800 GTX опережает как RADEON X1800 XL, так и RADEON X1800 XT 512MB. В режиме чистой производительности в низких разрешениях обе модели GeForce 7800 GTX упираются в барьер, установленный CPU, но далее, новая модель начинает уходить в отрыв с ростом разрешения. Преимущество варьируется от 20% до 35%, причем, комфортно играть на GeForce 7800 GTX 512 можно даже в разрешении 1600х1200 при включенных FSAA и анизотропной фильтрации.

Игровые тесты: Doom III





В высоких разрешениях режима eye candy RADEON X1800 XT 512MB удается вырвать преимущество у GeForce 7800 GTX, но GeForce 7800 GTX 512 расставляет все по своим местам – этот монстр легко обеспечивает производительность на уровне свыше 60 fps во всех режимах и разрешениях.

Игровые тесты: Far Cry






Уровень Pier, обширный и богатый пиксельными шейдерами, имитирующими водную поверхность, традиционно, предпочитает карты ATI Technologies, и RADEON X1800 XT 512MB на этом уровне выглядит куда предпочтительнее GeForce 7800 GTX. Новый видеоадаптер NVIDIA быстрее примерно на 35%, и этого как раз хватает для утверждения status quo. Речь идет о разрешении 1600х1200 режима FSAA 4x + AF 16x, так как в более низких разрешениях, не говоря уже о режиме чистой производительности, разницы между тестируемыми видеоадаптерами нет – все они демонстрируют скорость на уровне 85-90 кадров в секунду.





Сцена, записанная на уровне Research, гораздо менее процессорозависима, к тому же, здесь используются пиксельные шейдеры версии 3.0, поэтому она представляет больший интерес для анализа. Благодаря универсальной архитектуре, позволяющей эффективно исполнять пиксельные шейдеры различной сложности, GeForce 7800 GTX опережает RADEON X1800 XT 512MB, если только речь не идет об использовании полноэкранного сглаживания – в последнем случае очень важна пропускная способность памяти и эффективность ее контроллера, а по этим параметрам изделие NVIDIA, увы, проигрывает изделию ATI Technologies. GeForce 7800 GTX 512, напротив, значительно превосходит RADEON X1800 XT 512MB – его подсистема памяти быстрее на целых 6.4 ГБ/сек., и, как следствие, он опережает своего соперника примерно на 20%, обеспечивая NVIDIA первое место в Far Cry.

Игровые тесты: Far Cry with HDR Lighting

По традиции, мы проверяем способность новинки работать в режиме освещения с высоким динамическим диапазонам. Мы включили в результаты тестировани и продукты ATI Technologies RADEON X1800, которые могут предложить HDR в игре Far Cry в случае использования специального патча от CryTek. К сожалению, патч не отличается по настоящему быстрой работой, не дает возможности включить FSAA, а также недоступен пользователям, потому, комментировать результаты RADEON X1800 пока рано.




Даже в разрешении 1600х1200 при включенном HDR GeForce 7800 GTX 512 обеспечивает производительность на уровне 60 fps и выше, что позволяет играть в этом режиме вполне комфортно. Обычная модель GeForce 7800 GTX была ограничена разрешением 1280х1024, а в разрешении 1600х1200 уже ощущался некоторый дискомфорт. Что касается GeForce 6800 Ultra, то уделом этих карт является разрешение 1024х768, как, впрочем, и конкурентам из семейства RADEON X1800 в их текущем состоянии.

Игровые тесты: F.E.A.R.





GeForce 7800 GTX 512 становится первой картой, преодолевшей барьер 100 fps в этой игре – до этого, ни один видеоадаптер потребительского класса, включая и RADEON X1800 XT 512MB, не обеспечивал в F.E.A.R. столь высокой производительности. Даже в режиме eye candy новинка не теряет преимущества, опережая RADEON X1800 XT 512MB на 10%-15%, и обеспечивая вполне достаточную для комфортной игры скорость в разрешениях вплоть до 1280х1024.

Игровые тесты: Half-Life 2





Некоторые различия между картами обнаруживаются лишь, начиная с разрешения 1280х1024 при включенных FSAA и анизотропной фильтрации. GeForce 7800 GTX 512 незначительно, но все же опережает RADEON X1800 XT 512MB.





Аналогичная картина видна и на уровне d3_c17_02. Преимущество нового решения NVIDIA есть, но оно не превышает 2 fps. Эффект от разгона также минимален, учитывая относительно небольшой прирост по тактовым частотам GPU и памяти.

Игровые тесты: Project: Snowblind





Лишь 9 кадров в секунду не хватило GeForce 7800 GTX 512, чтобы достичь производительности на уровне 100 fps в разрешении 1600х1200 при включенных FSAA и анизотропной фильтрации, но и 91 fps является великолепным результатом, исключающим любые "подтормаживания" игры. Занимающий вторую позицию RADEON X1800 XT 512MB отстает от лидера более чем на 20 fps, хотя он также обеспечивает высокий уровень комфорта в самом тяжелом режиме.

Игровые тесты: Quake 4






К сожалению, Quake 4 достаточно процессорозависима, во всяком случае, если речь идет о тестировании карт, относящихся к высшему классу. Некоторую полезную информацию удается получить лишь в высоких разрешениях и/или при включении FSAA и анизотропной фильтрации. GeForce 7800 GTX 512 лидирует и в этих случаях, хотя преимущество относительно RADEON X1800 XT 512MB составляет лишь 10%. Тем не менее, и этих довольно скромных процентов достаточно, чтобы утвердить первенство NVIDIA.

Игровые тесты: Serious Sam 2





GeForce 7800 GTX 512 является первой одиночной картой, позволяющей играть в Serious Sam 2 при включенном полноэкранном сглаживании в достаточно высоких разрешениях. В частности, в разрешении 1280х1024, новинка обеспечивает скорость на уровне 55 fps, в то время, как RADEON X1800 XT 512MB ограничен 42 fps. К сожалению, игра крайне требовательна, и запас прочности невелик даже у таких монстров, как RADEON X1800 XT 512MB и GeForce 7800 GTX 512 – в сложных сценах производительность может падать ниже отметки 20 кадров в секунду.

Отметим, что по непонятным причинам Serious Sam 2 выдает BSOD на видеокарте GeForce 7800 GTX с 256 мегабайтами памяти в режиме 1600х1200 с включенным полноэкранным сглаживанием и анизотропной фильтрации, тогда как на GeForce 7800 GTX 512 – такой проблемы не наблюдается. Видимо, есть некоторое нарекание в работе менеджмента видеопамяти драйвером NVIDIA ForceWare.

Игровые тесты: Unreal Tournament 2004





Данная сцена не годится для сравнения карт, относящихся к высшему классу, так как все они демонстрируют в ней практически один и тот же результат. Вне зависимости от разрешения и использования FSAA/анизотропной фильтрации, производительность не падает ниже 85 кадров в секунду, чего более, чем достаточно даже самому требовательному игроку.





Несколько больше полезной информации предоставляет уровень Metallurgy – здесь GeForce 7800 GTX 512 опережает RADEON X1800 XT 512MB на 35%-37%. Он, наверняка, мог бы и больше, но даже в разрешении 1600х1200 новинка NVIDIA упирается в барьер, установленный центральным процессором – порядка 130 fps. Надо ли говорить, что этого с лихвой хватит даже самому заядлому игроку?

Игровые тесты: Prince of Persia: Warrior Within


В высоких разрешениях GeForce 7800 GTX 512 демонстрирует 40%-преимущество над обычным GeForce 7800 GTX, и 30% - над RADEON X1800 XT 512MB. Даже минимальный уровень производительности не падает ниже 140 кадров в секунду!

Игровые тесты: Splinter Cell: Chaos Theory





Обработка сложных пиксельных шейдеров версии 3.0 – конек нового семейства RADEON X1000, и старшая модель, видеоадаптер RADEON X1800 XT 512MB, изначально опережает GeForce 7800 GTX в этой игре, причем, довольно значительно. Однако, и ему, работающему на частотах 625/1500 МГц, приходится уступить новому GeForce 7800 GTX 512, хотя в режиме eye candy изделие ATI не собирается так просто сдавать свои позиции – здесь наиболее мощные решения двух графических гигантов идут практически вровень друг с другом. Наблюдается лишь небольшой перевес в пользу GeForce 7800 GTX 512, не превышающий 2-4 fps. И RADEON X1800 XT 512MB, и новый представитель семейства GeForce 7 позволяют играть в Splinter Cell: Chaos Theory вполне комфортно, даже используя разрешение 1600х1200 и возможности eye candy – полноэкранное сглаживание и анизотропную фильтрацию.

Игровые тесты: Colin McRae Rally 2005





Colin McRae Rally 2005 является одной из немногих игр, в которых RADEON X1800 XT 512MB достаточно успешно соперничает с NVIDIA GeForce 7800 GTX 512. Ему даже удается опередить новинку, но почему-то, только в разрешении 1280х1024 при включенных FSAA и анизотропной фильтрации. В разрешении 1600х1200 новое решение NVIDIA вновь выходит вперед, в первую очередь, благодаря невиданной ранее частоте памяти – 850 (1700) МГц.

Игровые тесты: Pacific Fighters





GeForce 7800 GTX 512 практически упирается в производительность CPU даже в разрешении 1280х1024 при включенном сглаживании и анизотропной фильтрации. Только в разрешении 1600х1200 он слегка отходит от этого барьера, демонстрируя, тем не менее, производительность на уровне 70 кадров в секунду. В это же время, представители семейства RADEON X1800, использующие намного менее эффективный драйвер OpenGL, могут, в лучшем случае, продемонстрировать скорость порядка 40 fps, падающую, порой, до 20-21 fps.

Игровые тесты: Age of Empires 3





Первенство семейства GeForce 7 налицо, но обычный вариант GeForce 7800 GTX не в состоянии обеспечить приемлемой скорости в высоких разрешениях режима eye candy, в то время, как GeForce 7800 GTX 512 вполне в состоянии это сделать – его производительность примерно на 30% выше. 45 кадров в секунду вполне достаточно для стратегической игры, и будущие владельцы GeForce 7800 GTX 512 вполне могут использовать разрешение 1600х1200 одновременно с возможностями eye candy, значительно улучшающими качество картинки.

Игровые тесты: Warhammer 40.000: Dawn of War





Нет равных GeForce 7800 GTX 512 и в "Заре Войны" – даже в самом ресурсоемком режиме она опережает предыдущую модель на 25%, а отрыв от RADEON X1800 XT 512MB достигает 45%, при этом, обеспечивается производительность на уровне 60 кадров в секунду, что вполне удовлетворит даже привередливых любителей стратегических игр.

Полусинтетические тесты: Aquamark3






Aquamark3 по современным меркам не является сложным тестом – большая часть пиксельных шейдеров, используемая в нем, укладывается в рамки версий 1.1 и 1.4, а шейдеров версии 2.0 очень мало. Результат в этом тестовом пакете в большой степени зависит от производительности вершинных процессоров, а также от умения графического процессора отсекать невидимые поверхности. GeForce 7800 GTX находится примерно на том же уровне, что и RADEON X1800 XT 512MB, но одинаковых результатов эти карты достигают разными путями: первый – за счет 24 пиксельных процессоров и приспособленности архитектуры к работе с простыми шейдерами, а второй – за счет высоких тактовых частот и улучшенного алгоритма отсечения невидимых поверхностей. GeForce 7800 GTX 512 показывает еще более высокую производительность, но в процентном соотношении его превосходство над RADEON X1800 XT 512MB невелико и не превышает 10%-12%.

Полусинтетические тесты: Final Fantasy XI Official Benchmark 3


Разогнанный GeForce 7800 GTX 512 ставит новый рекорд в этом тесте – свыше 6500 очков. Менее 100 очков не хватает до этой отметки новому решению NVIDIA при работе на номинальных частотах, но, в любом случае, ее лидерство неоспоримо – RADEON X1800 XT 512MB не дотягивает и до 6000 очков.

Синтетические тесты: Futuremark 3DMark03 build 360


Всего 718 очков не хватило до нового рекорда GeForce 7800 GTX 512, работающему на номинальных частотах. Барьер был успешно взят, но для этого все-таки потребовался разгон. Победу GeForce 7800 GTX 512 над RADEON X1800 XT 512MB можно назвать сокрушающей: 2923 очка в пользу решения NVIDIA – более, чем внушительный отрыв.





Картина в комментариях не нуждается – в этом тесте даже обычный GeForce 7800 GTX, в худшем случае, демонстрирует такой же результат, как и RADEON X1800 XT 512MB. GeForce 7800 GTX 512 гораздо мощнее, и в режиме eye candy его производительность в первом тесте не опускается ниже 220 fps.





Во втором тесте GeForce 7800 GTX 512 также побеждает во всех разрешениях, но – обратите внимание – включение FSAA и анизотропной фильтрации очень сильно сокращает разрыв между ним и RADEON X1800 XT 512MB. В разрешении 1600х1200 он не превышает 2 кадров в секунду. Технологически, главной особенностью теста является использование карт нормалей и динамических стенсильных теней, так что определенное преимущество имеется у NVIDIA, но, тем не менее, поражение RADEON X1800 XT 512MB отнюдь не разгромное. Можно предположить, что совокупность памяти с частотой 1.5 ГГц и контроллера RingBus по эффективности примерно соответствует традиционному контроллеру памяти, работающему с памятью на частоте 1.7 ГГц.





Технически, третий тест отличается от второго усложненной геометрией, поэтому и результаты в нем были получены схожие, хотя победа GeForce 7800 GTX 512 все же выражена несколько более отчетливо. Оба соперника несут по 8 вершинных процессоров, но у RADEON X1800 XT 512MB они работают на более высокой частоте – что же помешало ему догнать GeForce 7800 GTX 512 в высоких разрешениях режима eye candy? Вероятно, проблема сокрыта в драйверах CATALYST.





В четвертом тесте используется большое количество пиксельных и вершинных шейдеров версии 2.0. RADEON X1800 XT 512MB изначально побеждал в нем лишь за счет заоблачных тактовых частот, но теперь, ему пришлось уступить место лидера GeForce 7800 GTX 512, который, помимо высоких частот GPU и памяти, обладает еще и 24 пиксельными процессорами. Сочетание этих факторов породило настоящего вычислительного монстра, который и смог показать скорость на уровне 70+ fps даже в режиме eye candy.

В общем, и в целом, победа NVIDIA GeForce 7800 GTX 512 не подлежит сомнению, но если бы результаты для общего зачета снимались в режиме eye candy, она была бы не столь внушительной.

Синтетические тесты: Futuremark 3DMark05 build 120


Новая архитектура ATI очень сильна в 3DMark05, так как основой упор в этом тестовом пакете сделан на исполнение максимально сложных пиксельных шейдеров, а именно это является сильной стороной RADEON X1000. Увеличение тактовых частот, предпринятое NVIDIA, позволило GeForce 7800 GTX 512 занять первое место и здесь, но победа совсем не впечатляет – лишь 347 очков отделяет ее от соперника. Мы не смогли достичь отметки 10.000 очков на нашей тестовой платформе; вероятно, если бы мы располагали более мощным CPU, ее бы удалось покорить.





Изначально, в "шутерном" тесте RADEON X1800 XT 512MB и GeForce 7800 GTX 512 идут вровень друг с другом, но по мере роста разрешения, изделие NVIDIA начинает отрываться. В режиме чистой производительности преимущество достигает 15%, а в режиме eye candy составляет уже 20%.






Менее значительна победа NVIDIA в тесте "ролевом" - производительность подсистемы памяти здесь не является ключевым параметром из-за пространственной ограниченности демонстрируемой сцены. GeForce 7800 GTX 512 опережает RADEON X1800 XT 512MB не более, чем на 1 кадр в секунду.





Ситуация, сложившаяся в третьем тесте, во многом напоминает ту, которая наблюдалась в первом – с ростом разрешения GeForce 7800 GTX 512 все более уверенно опережает RADEON X1800 XT 512MB. Более того, в самом ресурсоемком случае опередить, хотя и незначительно, старшую модель RADEON X1800 в состоянии даже менее мощная модель GeForce 7800 GTX.

Результат, показанный GeForce 7800 GTX 512 в общем зачете вполне закономерен, с поправкой на то, что если бы показания снимались в более высоком разрешении, то разрыв между новой моделью GeForce 7 и RADEON X1800 XT 512MB был бы больше.

Заключение

ATI RADEON X1800 XT 512MB процарствовал на троне короля трехмерной графики очень недолго: ответ NVIDIA был прост, логичен и результативен – воспользовавшись наличием в арсенале новой ревизии G70, компания увеличила номинальную частоту GPU c 430 до 550 МГц, и снабдила его сверхпроизводительной памятью. В результате, новый видеоадаптер GeForce 7800 GTX 512, вторая инкарнация GeForce 7800 GTX, получился настоящим чудовищем с невиданной ранее производительностью.

NVIDIA GeForce 7800 GTX 512 опередил RADEON X1800 XT 512MB даже там, где ранее это не удалось сделать прошлому воплощению GeForce 7800 GTX – в играх, насыщенных сложными шейдерами, а также в режимах, использующих одновременно полноэкранное сглаживание и анизотропную фильтрацию. Единственным исключением стал автосимулятор Colin McRae Rally 2005, но даже в нем продукту ATI удалось одержать лишь незначительную победу в одном разрешении, во всех же остальных случаях, включая 3DMark05, GeForce 7800 GTX 512 стал полноправным лидером. Кроме этого, рост производительности привел к тому, что при использовании более точного представления цвета, в так называемом режиме HDR, стало возможным использовать в игре более высокие разрешения.

Помимо высочайшей производительности, новинка отличилась и довольно скромным аппетитом в области энергопотребления, особенно, по сравнению с RADEON X1800 XT 512MB, а также практически полным отсутствием шума. В общем-то, не новая система охлаждения, ранее устанавливаемая на профессиональные карты NVIDA Quadro FX 4500, оказалась почти бесшумной, но, вместе с тем, достаточно эффективной, чтобы охлаждать GeForce 7800 GTX 512, работающий на более высоких частотах. Более того: как выяснилось, 550 МГц для данной ревизии G70 - не предел, и чип вполне может работать на частоте 600 МГц и более. Этим уже воспользовались некоторые партнеры NVIDIA, в частности, XFX, объявившая свой вариант GeForce 7800 GTX 512, в котором GPU по умолчанию работает на частоте 580 МГц, и это, напоминаем, не единичный случай: ASUSTeK Computer, BFG Technologies, и другие производители карт также предлагают ускоренные версии GeForce 7800 GTX 512!

Цена NVIDIA GeForce 7800 GTX 512 составляет $649, на $100 дороже рекомендованной стоимости ATI RADEON X1800 XT 512MB, ведь очевидно, что новый продукт NVIDIA должен продаваться по более высокой цене, как наиболее производительный видеоадаптер потребительского класса. К тому же, понятно, что он является исключительно имиджевым продуктом, предназначенным для тех, кто готов не взирать на цены ради получения максимально возможной сегодня производительности. Остальным вполне подойдет обычный вариант GeForce 7800 GTX, оснащенный 256 МБ видеопамяти. Он также обладает высокой производительностью, хорошо разгоняется, а стоит значительно дешевле.

В любом случае, ответный ход сделан, и корона технологического лидерства вновь перешла к NVIDIA. Надолго ли? Это покажет время, но никак не менее, чем на квартал. ATI Technologies не дремлет, и, в настоящее время, активно тестирует новый графический процессор R580, а также исследует возможность установки более быстрой памяти на текущую инкарнацию RADEON X1800 XT-серии, благо, что возможность выпуска Platinum Edition карт никто не отменял. Другой вопрос, что логичней сделать ставку на новый графический чип R580, нежели ускорять текущие RADEON X1800 XT.

Гонка графических процессоров вновь накаляется. Во время выпуска SLI nVidia получила корону графической производительности в конфигурациях на двух картах, но первое место среди одиночных решений было не таким убедительным. 22 июня этого года nVidia выпустила 7800 GTX, который буквально порвал все конкурирующие модели.

Долгие дни ATi медлила с ответом. Конечно, компания анонсировала технологию совместной работы двух карт CrossFire, но она так и не попала на рынок. Даже после недавнего второго запуска этой технологии потребитель по-прежнему не может купить ни master-карты CrossFire, ни материнские платы.

Чуть больше месяца назад ATi выпустила линейку X1000 и вернула своё лидирующее положение. В некоторой степени. На рынке карты появились лишь через некоторое время.

Флагман X1800 XT тоже задержался, хотя сегодня и появился на полках магазинов. Впрочем, что касается новых карт nVidia 6800 GS, то в России ситуацию с их доступностью тоже нельзя назвать благоприятной.

Но сегодня разговор пойдёт не о том. nVidia вновь вернула себе корону производительности в конфигурациях как с одной, так и с двумя графическими картами. Мы имеем в виду выход на рынок нового графического процессора 7800 GTX 512. С выходом нового чипа nVidia обещает доступность карт на его основе в тот же день. Что ж, посмотрим, хотя в России ситуация осложняется таможней и другими проблемами.

Чип 7800 GTX 512 базируется на 7800 GTX, но содержит ряд модификаций. На первый взгляд, изменения можно назвать косметическими: nVidia вместе с партнёрами добавила возможность установки на карту ещё 256 Мбайт памяти. Но в действительности дизайн графических карт и ядра nVidia GeForce 7800 512 подвёргся изменению, включая изменения в раскладке, что позволило улучшить обработку данных. Скажем, внутренняя шина была расширена до 512 бит (виртуально, благодаря технологии DDR). В принципе, 512-битная шина данных не является чем-то новым. Та же ATi в линейке X1000 использует внутреннюю 512-битную шину (256 бит в двух направлениях). Однако пионером в данной области является Matrox и карта Parhelia 512 (кстати, эта компания первой реализовала и 256-битную шину).

У 7800 GTX 512 внутренняя шина способна передавать 512 бит за такт благодаря поддержке технологии DDR. Внешняя шина остаётся 256-битной, так что скорость работы с 512-Мбайт буфером остаётся прежней. Если вернуться в прошлое, то мы никогда даже и не предполагали, что объём памяти видеокарты может сравняться или даже превзойти объём системной памяти. Теперь же суммарный объём графической памяти в конфигурации SLI может достичь 1 Гбайт!

С новой широкой внутренней шиной и благодаря оптимизациям раскладки ядра, nVidia смогла сильнее увеличить тактовые частоты по сравнению с оригинальным чипом 7800 GTX. Появившись в июне, GeForce 7800 GTX работал на тактовой частоте ядра 430 МГц и памяти - 600 МГц. Теперь же новые карты работают с частотой ядра 550 МГц и памяти - 850 МГц (1,7 ГГц DDR). Существенное продвижение вперёд.

Работа на повышенных тактовых частотах при сохранении техпроцесса 110 нм привела к тому, что nVidia потребовалось более совершенное решение охлаждения. И кулер был взят от уже существующей карты Quadro FX 4500. nVidia заявляет, что новое ядро, несмотря на более высокие тактовые частоты, будет потреблять не больше энергии, чем существующая 7800 GTX. Но как такое может быть? Техпроцесс не менялся, а частоты существенно возросли. Как будет видно ниже, nVidia не совсем права в своих заявлениях.

Получив карты, мы установили их в нашу тестовую систему, которую использовали для тестирования драйверов линейки 80 . Как мы уже отмечали, в документации к новым драйверам была указана поддержка карт следующего поколения. Но WHQL-сертифицированный драйвер 81.85 с сайта nVidia не смог распознать новые карты. Мы проверяли его со многими картами GeForce 7800 GTX, однако с новой линейкой 512 он работать отказался.

Мы решили скачать бета-драйвер 81.87 с сайта SLIzone.com (ещё один сайта nVidia, нацеленный на энтузиастов). После деинсталляции существующего драйвера 81.85 мы перезагрузили систему и попытались установить бета-драйвер. Но мы сразу же получили сообщение об ошибке, как и раньше. Драйвер не поддерживает карты.

Затем мы получили ещё один драйвер для тестирования (версия 81.89), который распознал наши карты и позволил их протестировать. Мы сразу же захотели проверить, правда ли, что nVidia поменяла ядро. С драйверами линейки 80 карты будут работать в конфигурации SLi, только если у них одинаковые ядра. Поэтому мы достали одну видеокарту 7800 GTX 512 и заменили её июньской эталонной моделью 7800 GTX.

Когда мы включили систему с двумя разными картами, соединёнными мостиком SLi, Windows XP Professional не смогла завершить загрузку. Она периодически "подвисала" на длительное время при прокрутке горизонтальной полоски. Подождав минут 20, мы решили, что подобная конфигурация всё же не заработает. Даже если бы машина и загрузилась, кому в здравом уме пригодится такая конфигурация, когда загрузки машины надо ждать полтора часа? Это в старые добрые дни можно было минутами ждать проверки памяти FP или EDO после включения тумблера питания. Но на дворе 2005 год.

Мы решили провести ещё один прогон, но без мостика SLI. И всё удалось! Система стартовала без каких-либо проблем. Windows запросила установку драйверов видеокарты, найдя традиционную 7800 GTX. Мы вызвали диспетчер устройств, чтобы убедиться в правильной установке. Затем мы открыли окно драйвера, чтобы посмотреть, сможем ли мы включить SLI. К сожалению, мы получили сообщение, что две карты не могут работать в конфигурации SLI, даже если они обе называются GeForce 7800 GTX.


Обе версии 7800 GTX на плате Abit Fatality AN8-SLI. Здесь наглядно видно различие карт по размеру. Модель 512 занимает два слота.

Размер системы охлаждения новых карт может не подойти для многих современных материнских плат. Если вы уже купили материнскую плату SLI от Abit, Gigabyte, MSI или любого другого производителя, то обнаружите, что два слота PCIe x8 расположены слишком близко друг к другу. Для карт линейки 6000 это не вызывало проблем, поскольку кулеры не занимали второй слот. То же самое было верно и для линейки 7000. Однако сейчас кулер первой карты слишком близко прилегает к плате второй карты.

Asus разработала свою материнскую плату с учётом использования системы охлаждения Artic Cooler на графических картах Extreme N7800 GTX TOP, которые занимают примерно 2,25 слота. Это оставляет достаточно места для новых карт GeForce 7800 GTX 512.

Хотя новые карты не так сильно нагреваются, как оригинальная 7800 GTX, кулеры всё же очень большие. Ниже мы привели несколько фотографий, показывающих различие между двумя раскладками материнских плат.


Раскладка Asus обеспечивает больше места между картами.


Системное аппаратное обеспечение
Процессор AMD Athlon 64 FX-57
2,8 ГГц, 1,0 ГГц HyperTransport, 1 Мбайт кэша L2
Платформа Asus AN8-SLI Premium
nVidia nForce4 SLI, BIOS 1003 - 1005
Память Corsair CMX1024-4400Pro
2x 1024 Мбайт @ DDR400 (CL3,0-4-4-8)
Жёсткий диск Western Digital Raptor, WD740GD
74 Гбайт, 10 000 об/мин, кэш 8 Мбайт, SATA 150
Сеть Встроенный nForce4 Gigabit Ethernet
Блок питания Enermax EG851AX 660 Вт, SLI-сертифицированный
Видеокарты
nVidia GeForce 7800 GTX 512 (эталонная) 512 Мбайт GDDR3
550 МГц ядро, 1,7 ГГц память DDR
ATi Radeon X1800 XT 512 Мбайт GDDR3
625 МГц ядро, 1,50 ГГц память DDR
nVidia GeForce 7800 GTX (эталонная) 256 Мбайт GDDR3
430 МГц ядро, 1,2 ГГц память DDR
Системное программное обеспечение и драйверы
ОС Microsoft Windows XP Professional 5.10.2600, Service Pack 2
Версия DirectX 9.0c (4.09.0000.0904)
Драйвер платформы nForce 6.65
Графические драйверы ATi - Catalyst 5.9 - Display Driver 8.173
nVidia - Forceware 81.85 - WHQL - 7800 GTX
nVidia - Forceware 81.89 - Beta - 7800 GTX 512

Как мы отмечали выше, nVidia в своей презентации указывает на то, что новая карта не увеличивает энергопотребление системы на сколько-нибудь заметное значение.

Возможно, nVidia думает, что дополнительные 20 Вт являются незаметным значением, но большинство пользователей вряд ли с этим согласятся. Карта потребляет на 20% больше. Скажем, разве можно назвать "незаметным" 20% увеличение производительности? Продолжаем мысль дальше. Минимальным блоком питания для одной карты станет 350-Вт блок, обеспечивающий не меньше 22 А по линии 12 В. А для работы двух карт блок питания должен обеспечивать не меньше 500 Вт, причём по линии 12 В ток должен составлять не меньше 30 А. Посмотрим на результаты измерений.

nVidia прокомментировала, что указанные требования являются пиковыми, но, как можно видеть по результатам, во время запуска 3D-приложений общее энергопотребление возрастает примерно на 6,3%. Возможно, именно это значение компания назвала "незаметным". И здесь мы, в принципе, согласны.

Есть и хорошие новости: GeForce 7800 GTX действительно потребляет меньше энергии, но только во время бездействия или при загрузке. На диаграмме можно видеть среднюю экономию энергии в 9,3%. Впрочем, вряд ли покупатели подобных карт будут экономить каждую копейку на счёте за электричество. Они желают получить максимальную частоту кадров по любой цене. Что ж, давайте перейдём к результатам тестов производительности.

Результаты тестирования

3DMark часто называют "геймерским тестом", а лаборатория THG использует разные версии этого теста уже несколько лет. Баллы 3DMark выдаются относительно эталонной системы. Чем выше баллы, тем выше производительности системы по сравнению с эталонной. С каждой новой версией 3DMark баллы пересматриваются, чтобы они не возросли астрономически высоко. Этот тест широко используется в индустрии.

Как видим, GeForce 7800 GTX 512 обгоняет ATi X1800 XT, показав больший результат.

Многие игры базируются на движке Unreal. По этой причине мы считаем, что UT2004 должен сохраняться в нашем ассортименте тестов. Мы используем демо UT2004 собственной сборки, действие происходит в режиме "assault" на карте Fallen City. Мы не включали ботов, а графические детали, вполне понятно, были выкручены на максимум.

Как видим, производительность движка Unreal упирается в CPU. Но при повышении разрешения и количества функций карта вновь становится ограничивающим фактором. Но даже в разрешении 1600x1200 с 4xAA и 8xAF новая версия 512 уже не сдаётся, в отличие от оригинала.

Движок Crytek является одним из многих, но игра Far Cry хорошо нагружает видеокарту текстурами, тенями и освещением. Во время тестов мы включали фонарик в игре. Мы использовали собственное демо Cooler01, чтобы гарантировать независимый результат. Far Cry также поддерживает высокий динамический диапазон HDR (High Dynamic Range).

Что-то интересное проглядывает в этом и некоторых других тестах в конфигурации SLI. Раньше SLI обеспечивала в Far Cry прирост, включая оригинальную 7800 GTX. Но здесь, как можно видеть, одиночная 512 обеспечивает более высокую частоту кадров. Возможно, это просто связано с драйверами, которые находятся в состоянии бета-версии, либо с тем, что на просчёт SLI тратится слишком много ресурсов.

При повышении разрешения SLI вновь выходит на первое место.

Следующий игровой движок - Doom 3. Он способен поставить все карты "на колени" из-за использования сложного освещения. Мы использовали штатное timedemo Doom 3 "demo1" для каждого из наших тестов. Сначала драйвер видеокарты выставлялся в настройку "application controlled" ("управление приложением"). Затем для первого прогона мы отключали FSAA и включали настройку высокого качества. При этом включалась анизотропная фильтрация (в режим 8x). Для второго прогона мы включали FSAA в режим 4х, чтобы нагрузить видеокарту по-максимуму.

Опять же мы наблюдаем знакомый сценарий, когда одиночная карта обгоняет конфигурацию SLI. Возможно, проблемы всё же в драйвере, но мы постараемся выяснить этот вопрос с nVidia.

Опять же, при увеличении нагрузки результаты приходят в норму. Во всех пяти тестах 7800 GTX 512 выходит в лидеры.

Затем мы тестировали карты на движке Valve Source, который используется в Half-Life 2. Игра HL2 немало нагружает процессор, поэтому она является хорошим тестом не только последних графических карт, но и общей системной производительности. Кстати, HL2 отличается очень красивыми графическими красотами. Во время последнего обновления Valve Software к Half-Life 2 была добавлена поддержка HDR. Прекрасное добавление, но в результате наше прежнее тестовое демо потеряло свою актуальность. Поэтому пришлось обновить этот тест. Теперь мы используем демо DP_Coast_01.dem.

Первый раз карты 7800 GTX 512 не вышли на первое место. Кроме того, эта игра не очень-то любит SLI.

Даже Half-Life 2 в высоком разрешении уступает первое место новой карте nVidia.

Мы продолжаем проверять возможности разгона новых карт и драйверов. Хотя nVidia по умолчанию не предоставляет движков разгона в драйверах карты, их можно включить с помощью Coolbits. Напоминаем, что разгон лишает гарантии и сокращает срок службы компонентов. Для наших тестов мы использовали кулер, поставляющийся в комплекте с картой.

Мы смогли при одиночной работе карты увеличить частоту ядра до 621 МГц, а память - до 1,81 ГГц DDR (напомним, что оригинальные частоты составляют 550 МГц для ядра и 1,7 ГГц DDR для памяти). При этом в 3DMark 2005 мы смогли увеличить результат от 9 538 до 10 939 баллов. Улучшение составило почти 15%.

В режиме SLI разгон оказался чуть хуже. Мы не смогли поднять частоты так же высоко, как при использовании одиночной конфигурации. Мы попытались вручную поднять частоты, но система "вылетела". Частота ядра поднялась до 610 МГц, а памяти - до 1,78 ГГц. В результате мы получили 13 316 баллов в 3DMark 2005 против начального результата 13 044. В общем, прирост составил всего 2%. Как вы понимаете, разгонять карты в конфигурации SLI вряд ли имеет смысл. В то же время, пользователи одиночных карт получат от разгона существенное преимущество. Суммарный разгон частот ядра и памяти составил 9,7%, но скорость возросла на 15%.

Следует отметить, что результаты разгона зависят от конкретных образцов карты и в вашем случае могут быть иными.

Итог будет прост: карту nVidia GeForce 7800 GTX 512 можно назвать новым королём 3D-производительности. Как показало наше тестирование, только в 2 из 24 тестов (игры и разные режимы) вперёд вышла карта ATi. На момент выхода статьи карты должны уже появиться в магазинах, исключая ситуацию в России, где часто влияют другие факторы вроде таможни. Но к Новому году карты, определённо, будут доступны, так что подарок вы сможете сделать просто отменный.

Как мы надеемся, ATi в ближайшее время тоже представит что-нибудь интересное. Конкуренция со стороны nVidia, а также агрессивная политика заполнения рынков любых ценовых уровней играет на руку потребителям, по крайней мере, сейчас. Но без сильного оппонента ситуация будет резко ухудшаться: инновации будут появляться позднее, а цены расти. Будем ждать ответа ATi.

Asus EN6800Ultra Dual: анатомия и результаты бенчмарков
Lexagon / 16.06.2005 04:48 / ссылка на материал
Факт появления обзоров и фотографий видеокарты Asus EN6800GT Dual на разных сайтах одновременно мог означать только одно: поголовье этих ещё не одобренных официально к массовому производству решений стремительно растёт, и для экспериментаторов они представляют определённый интерес вне зависимости от того, будет ли налажено массовое производство.

Не будем забывать, что существует в арсенале и ещё одна видеокарта подобного типа по имени Asus EN6800Ultra Dual, которая появилась в лабораториях даже раньше, но до сих пор представала перед глазами читателей в обнажённом виде, то есть без системы охлаждения. Лишь на CeBIT 2005 она обрела более или менее вразумительный кулер, похожий на тот, который присутствует на Asus EN6800GT Dual.

Коллегам с сайта Hexus удалось проникнуть в лаборатории Asus, где они запечатлели обе видеокарты в действии, а также заметили ещё пару десятков аналогичных образцов, приготовленных для отправки представителям средств массовой информации для тестов. Были замечены и некоторые другие любопытные новинки от Asus. Например, блок питания мощностью 500 Вт с поддержкой PFC, разработанный в сотрудничестве со специалистами "профильного" бренда, но выпускаемый на собственных мощностях Asus.
http://www.overclockers.ru/images/ne...16/asus_01.jpg
Как понятно из фотографии, вентилятор для этих видеокарт изготовлен компанией CoolerMaster. Надо полагать, что и к системе охлаждения в целом инженеры этой гонконгской фирмы приложили руку.

Непосредственно видеокарта Asus EN6800Ultra Dual без кожуха системы охлаждения предъявила на обозрение два разных радиатора - один сделан из алюминия, другой из меди.
http://www.overclockers.ru/images/ne...16/asus_02.jpg
Если видеокартам суждено будет дожить то стадии серийного производства, то они наверняка остановят свой выбор на каком-то одном материале. Нельзя исключать, что это будет алюминий - он не только дешевле, но и легче, а вес для такой гигантской видеокарты имеет большое значение.

Особых откровений о результатах бенчмарков мы не услышали. В системе на базе процессора Athlon 64 FX-53 (2.4 ГГц) и 1 Гб двухканальной памяти DDR 400 видеокарта Asus EN6800Ultra Dual набрала результат в 9783 "попугая" 3DMark05. Может быть, коллеги могли бы "натестировать" и больше, но злоупотреблять гостеприимством лаборатории Asus они не смогли. Поскольку образцы подобных видеокарт уже готовы к отправке, в ближайшее время мы наверняка увидим более подробные тесты. Впрочем, особых сюрпризов от этих "тандемов" ждать не приходится - интрига постепенно угасает в свете близости анонса видеокарт на базе G70.

nVidia снижает цены на бюджетные графические чипы
Lexagon / 16.06.2005 12:11 / ссылка на материал
Значительная часть видеокарт, реализуемых на рынке, имеет стоимость не более $100 - в этом смысле данный сегмент является самым массовым. По этой причине любые изменения цен на продукты этого класса живо отражаются на потребителях. Традиционно благоприятный период для снижения цен на графические чипы - это канун анонса новых решений, именно к такому периоду сейчас приближаются ATI и nVidia.

Как сообщают тайваньские коллеги с сайта DigiTimes, недавно компания nVidia снизила цены на некоторые графические чипы, относящиеся к бюджетному сегменту:

GeForce 6200 TurboCache -> на $15;
Семейство GeForce 6600 -> на $5;
Семейства GeForce 6200, GeForce FX 5200, GeForce MX 4000 -> на $1-2.

Хотелось бы отдельно отметить, что больше всего потерял в цене чип NV44, на основе которого изготавливаются видеокарты GeForce 6200 с поддержкой технологии TurboCache и интерфейсом PCI Express x16. Именно это решение должно стать самым доступным предложением для тех, кто уже перешёл на использование системы с интерфейсом PCI Express x16. Проблема заключается в том, что стоимость таких систем пока достаточно высока для бюджетного сегмента, и даже низкая цена видеокарт с поддержкой TurboCache не может стимулировать спрос в должной мере. Так или иначе, теперь видеокарты GeForce 6200TC будут стоить ещё меньше, хотя о конкретном значении снижения цены судить сложно - nVidia снижает цену только на видеочип, а стоимость готовой видеокарты определяется дополнительными факторами.

Судя по всему, видеокарты GeForce 6200A на базе чипа NV44A, обеспечивающего врождённую поддержку интерфейса AGP 8x, подешевеют совсем незначительно, ведь этот чип попал в категорию наименьшей уценки ($1-2). В большей степени могут подешеветь видеокарты GeForce 6600, однако в свете тенденции перехода на использование памяти типа GDDR-2 в упаковке BGA выигрыш в цене графического чипа будет съедаться приростом стоимости микросхем памяти.

Снижение цен на перечисленные видеочипы призвано стимулировать спрос во время традиционного сезонного спада. Стоимость конечных видеокарт снизится не сразу, так как производители обычно располагают внушительными запасами чипов, приобретённых по старым ценам.

Кстати, рекомендованная цена GeForce 7800 GTX в 256 Мб версии определена на отметке $549. Первое время будет поддерживаться спекулятивный уровень цен. Известно, что в семействе GeForce 7800 появятся ещё как минимум две видеокарты: GeForce 7800 GT и GeForce 7800. Об их стоимости и технических характеристиках мы пока ничего не знаем. Долго выжидать снижения цен на видеокарты серии GeForce 6800 не стоит. Как известно, по мере наращивания объёмов производства G70 этот чип вытеснит собой NV40/NV45. Если видеокарты серии GeForce 6800 и будут распродаваться по сниженным ценам, то все запасы наверняка быстро истощатся. Продавцы тоже не будут заинтересованы в хранении этих видеокарт на складах: при сопоставимой с новинками серии GeForce 7800 ценах они обладают более низким уровнем производительности, а потому скоро перестанут пользоваться спросом.

Хотелось бы увидеть ответные меры по снижению цен на видеочипы и от компании ATI, однако говорить о конкретных действиях канадской компании мы пока не можем.

Видеокарты GeForce 7800 GTX поступят в продажу в день анонса
Lexagon / 17.06.2005 08:07 / ссылка на материал
Видеокарты верхнего ценового сегмента с интересом ожидаются пользователями, и любая информация о новинках высоко ценится. Больше всего ждут данных о производительности и ценах. Дело даже не в том, что все заинтересованные любители компьютерных игр кинутся в магазины за видеокартами стоимостью не менее $500. Просто выход каждого флагманского графического решения задаёт определённую планку быстродействия, к которой непроизвольно тянутся не только изделия конкурентов, но и более дешёвые продукты собственного производства. Каким образом "тянутся"? Ну, разумеется, при помощи разгона:).

Посудите сами - эталон быстродействия задаётся в день анонса новинки или накануне. Вечно враждующие сторонники ATI или nVidia вступают в перепалку с новой силой, если лидер этого сезона определён по итогам первых бенчмарков. Сомневающиеся покупатели невольно обращают внимание на продукцию формального лидера. "Хочешь быть таким же крутым, как мы?" - спрашивают у потенциального соплеменника владельцы видеокарт производства компании, удерживающей лидерство по производительности в ключевых играх сезона. Если в ответ они получают пусть робкий, но утвердительный кивок головой, то многоголосая толпа решительно выдыхает: "Тогда покупай видеокарту на чипе производства компании <...>!"

В мире любителей разгона ситуация усугубляется ещё и тем, что некоторое время спустя после анонса флагманского решения оно подвергается экстремальному разгону, занимая определённые позиции в рейтинге Futuremark. Этот рейтинг - величайшее в компьютерном мире средство, притупляющее комплекс неполноценности. Набери больше всех "попугаев", и все блага (а заодно и красавицы) мира падут к твоим ногам!

В последнее время появились технологии SLI и CrossFire, которые способны существенно увеличивать уровень производительности видеокарт, а при умелом разгоне вообще устанавливают недостижимые для "одиночек" рекорды. При этом разгонный потенциал каждого флагманского чипа, выпущенного по новому техпроцессу, изучается особенно тщательно. Из новинки какой фирмы удастся больше выжать в процентном выражении при разгоне? Какой из конкурирующих чипов меньше нагревается при разгоне? Ответы на эти вопросы зачастую определяют выбор оверклокеров при покупке следующей видеокарты. В случае с анонсом G70 и R520 интрига одинаково сильна, так как оба чипа впервые переходят на использование 0.11 мкм и 0.09 мкм техпроцессов соответственно.

Самые экономные оверклокеры смотрят на вершины, покорённые недавно выпущенной видеокартой в номинальном режиме, с одной единственной целью - достичь аналогичного результата путём разгона гораздо более дешёвого решения. В этом плане особое значение имеют характеристики более дешёвых родственников анонсируемого флагмана - какой памятью они оснащаются, как разгоняются по чипу, имеется ли возможность включения дополнительных пиксельных конвейеров и вершинных процессоров. Например, G70 даст жизнь ещё как минимум двум видеокартам: GeForce 7800 GT и GeForce 7800. Об их характеристиках пока ничего не известно, но ценовые диапазоны примерно определены: GeForce 7800 GT придётся вписаться в нишу "до $449", GeForce 7800 будет играть в сегменте "до $349".

Таким образом, даже с учётом высокой цены GeForce 7800 GTX ($549 за 256 Мб версию) и потенциально ограниченной доли рынка (2-5% от всех продаваемых видеокарт), интерес к анонсу этого графического решения достаточно высок. В этой связи многие из потенциальных владельцев этой и других видеокарт на базе чипа G70 хотели бы получить информацию о сроках доступности данных продуктов. Что ж, их есть у нас:). Многие из постоянных читателей могут помнить, как мучительно протискивались на рынок видеокарты, основанные на чипе NV45. Формально они были анонсированы ещё прошлым летом, а в продаже найти версии GeForce 6800 Ultra и GeForce 6800 GT с интерфейсом PCI Express x16 было крайне сложно почти до января. Удивительно, как в таких условиях у некоторых наиболее впечатлительных народностей не возникли поверья, согласно которым встреча с GeForce 6800 Ultra PCI-E в магазине сулит удачу:).

В ходе подготовки к публикации различных новостей о GeForce 7800 GTX мы не раз убеждались, что новинка исправит многие ошибки предшественницы. В частности, уровень выхода годных чипов будет гораздо выше, а поддержка интерфейса PCI Express x16 станет врождённой. В сочетании с экономичным и проверенным на более простых решениях 0.11 мкм техпроцессом это даст возможность заменить весь ряд решений на базе NV40/NV45. Согласно имеющимся у нас данным, к сентябрю G70 полностью вытеснит NV45 из ассортимента производителей графических решений. По крайней мере, в верхнем ценовом сегменте.

Не будет на этот раз nVidia и кормить обещаниями желающих купить GeForce 7800 GTX. Как сообщают некоторые из наших коллег, видеокарты этой серии поступят в продажу уже утром 22 июня , то есть считанные часы после анонса. Не испытывает компания nVidia и проблем с распространением образцов для тестирования - по одному экземпляру GeForce 7800 GTX получили все желающие, особо приближённым достались две видеокарты - это позволит сразу провести тестирование для режима SLI.

Хотя первые партии GeForce 7800 GTX, которые поступят в продажу 22 июня и в последующие дни, будут исчисляться сотнями штук, в дальнейшем проблем с дефицитом возникнуть не должно. В конце концов, ради этого и был избран уже знакомый 0.11 мкм техпроцесс, чтобы избежать сюрпризов при масштабировании производства. Напомним, что GeForce 7800 GTX в версии с 256 Мб памяти должна продаваться по рекомендованной цене $549, однако первое время цена будет чуть выше. Тем не менее, быстрое наполнение розницы не допустит сохранения спекулятивного уровня цен, присущего первым дням доступности видеокарт в рознице. Версия GeForce 7800 GTX с 512 Мб тоже появится, она наверняка уложится в ценовой диапазон $800-900. Тем не менее, особого прироста производительности в режимах со средним разрешением этот вариант видеокарты не продемонстрирует. Преимущество от наличия 512 Мб памяти проявится в тяжёлых графических режимах. Разработчики игр не заставят себя долго ждать, и быстро подтянут возможности своих продуктов до уровня возможностей видеокарт с 512 Мб памяти.

(С)_www.overclockers.ru