CFA LogoCFA Logo Computer
Новости Статьи Магазин Драйвера Контакты
Новости
RSS канал новостей
В конце марта компания ASRock анонсировала фирменную линейку графических ускорителей Phantom Gaming. ...
Компания Huawei продолжает заниматься расширением фирменной линейки смартфонов Y Series. Очередное ...
Компания Antec в своем очередном пресс-релизе анонсировала поставки фирменной серии блоков питания ...
Компания Thermalright отчиталась о готовности нового высокопроизводительного процессорного кулера ...
Компания Biostar сообщает в официальном пресс-релизе о готовности флагманской материнской платы ...
Самое интересное
Программаторы 25 SPI FLASH Адаптеры Optibay HDD Caddy Драйвера nVidia GeForce Драйвера AMD Radeon HD Игры на DVD Сравнение видеокарт Сравнение процессоров

АРХИВ СТАТЕЙ ЖУРНАЛА «МОЙ КОМПЬЮТЕР» ЗА 2002 ГОД

GeForce’ированная семейка

Владимир СИРОТА vovsir@yandex.ru

Продолжаем наши обзоры видеокарт. Сегодня вашему вниманию предлагается очередная статья выдающегося, но пока незаслуженного журналиста Украины :-) на эту тему.

Однажды известного английского писателя Б. Шоу пригласили посетить выставку часов. По завершении осмотра экспозиции, естественно, поинтересовались его мнением об увиденном. Шоу как всегда оказался непревзойденным. «Не вижу никакого прогресса! — заявил он. — Современные часы идут ничуть не быстрее, чем хронометры в годы моей юности!». К счастью, я не могу сказать того же о современных видеокартах. Уж их то возможности производители наращивают если не по дням, то уж по ночам точно… :-).

В этой статье мы рассмотрим линейку видеокарт GeForce в доступной, так сказать, ценовой категории. О более мощных и, соответственно, дорогих моделях GeForce 4 Ti будет поведано попозже. Из этого обзора также выпала карта GeForce 4 МХ 460, исключительно по причине полной неработоспособности тестового экземпляра последней. Так что о ее производительности тоже в следующий раз. А пока…

Второй блин

Первым блином в семействе GeForce была модель GeForce256. Ну а первый блин, как принято :-), оказался комом. Поэтому об этой видеокарте мы скромно умолчим, как давно не производящейся и не продающейся, а потому не представляющей интереса даже Рис. 1своими глюками.

На смену GeForce256 компания NVIDIA быстренько выпустила GeForce 2 GTS (рис. 1). Аббревиатура из трех букв GTS расшифровывается как GigaTexel Shading. Именно этот продукт на долгий период стал флагманским в модельном ряде NVIDIA. Случилось это давным-давно, однако видеокарты на основе различных вариантов данного чипа благополучно дожили до наших дней и до сих пор предлагают себя пользователям с витрин компьютерных магазинов.

Чем же хорош видеочип GeForce2 GTS? Многим. Он изготавливается по технологии 0.18-мкм, содержит 25 млн. транзисторов, а его 256-разрядное графическое ядро работает на штатной частоте 200 МГц. (Для сравнения: 0.22-мкм ядро GeForce256 работало на 120 МГц).

Число конвейеров рендеринга у GTS составляло четыре, с двумя блоками текстурирования на каждом (у GeForce256 был один блок наложения текстур). Наличие двух блоков текстурирования на каждом из конвейеров обеспечивает такой оптимальный режим работы видеокарты, когда при наложении двух текстур на один пиксель не снижается общая пиковая скорость обработки изображения. Итого, скорость заполнения сцен (fillrate) новым чипом составляла 800 млн. пикселей в секунду (200х4), а текселей (пикселей с наложенной текстурой) соответственно при 1 текселе на пиксель — 800 млн. текселей в секунду, а при 2-х текселях на пиксель — до 1600 млн. текселей в секунду.

Обычно видеокарты на GeForce2 GTS работали с памятью DDR 166 МГц, хотя поддерживалась и обычная SDRAM. На них можно было устанавливать от 8 до 128 Мб оперативки, но последнее значение, конечно же, опережало свое время, и обычно ОЗУ исчислялось 32 Мб.

Видеокарты GeForce2 GTS оснащались 350-МГц RAMDAC и поддерживали максимальное разрешение 2048x1536 при 75 Гц. Поддерживался режим AGP Fast Writes, который обеспечивает прямой обмен данными между ЦПУ ПК и видеочипом без обращения к системной памяти компьютера, что должно повышать производительность.

При обработке трехмерной графики GeForce2 GTS обеспечивал аппаратное преобразования координат, установку освещения, отбрасывание полигонов, не входящих в конечный кадр. Движок Tranform & Lighting (T&L) чипа мог выдавать на-гора до 25 млн. текстурированных полигонов в секунду, а для сцены была возможна аппаратная поддержка 8-ми источников света. Микросхемой гарантировалась аппаратная поддержка свежих на тот момент возможностей OpenGL и DirectX 7, а также методов компрессии текстур DXTC и S3TC в DirectX и OpenGL соответственно. Обеспечивалась и поддержка аппаратного сглаживания всей сцены — Full scene anti-aliasing (FSAA).

Чипом GeForce2 GTS мог осуществляться рендеринг картинки при 16- и 32-битной глубине цвета, а предельный размер поддерживаемых текстур — 2048x2048х32 бит. Ко всему прочему, GeForce2 GTS обладал встроенным High-Definition Digital Video Processor’ом (HDVP), отвечающим за воспроизведение видео во множестве форматов, а также TMDS-трансмиттером, дающим возможность подключать мониторы, использующие цифровой интерфейс.

К сожалению, не обошлось в чипе и без проколов. Например, заявленная аппаратная поддержка пиксельных шейдеров в GeForce2 GTS так и осталась заявленной, ибо… оказалась несовместимой с реализацией Pixel Shader в DirectХ 8.0.

Со временем, что уже стало доброй традицией NVIDIA, на рынке появились всевозможные клоны оригинального GeForce2 GTS, представляющие по сути его разогнанные варианты. Апогеем процесса клонирования является GeForce2 Ti, рассчитанный на работу чипа/памяти в 250/400 МГц соответственно. Да уж, NVIDIA научилась снимать все сливки с рынка, выдавая свои оверклокерские решения за новые, а значит, и более дорогие продукты…

Рожденный ползать

При всех достоинствах GeForce2 GTS его цена на первых порах, что называется, кусалась. Чтобы привлечь на свою сторону и не избалованных излишками дензнаков пользователей, NVIDIA представила еще один графический чип, созданный на базе GTS, но позиционируемый для использования в недорогих системах. Им стал GeForce2 MX (рис. 2). Со временем и от этого продукта отпочковались две ветви. Одна из них линейка продуктов GeForce2 MX 400 (рис. 3), по сути своей представлявшая разогнанный вариант GeForce2 MX. Вторая ветвь наследников GeForce2 MX 200 (рис. 4) выглядит куда более странным решением: если GeForce2 MX, по сравнению с GeForce2 GTS, можно считать упрощенным вариантом, то GeForce2 MX 200 иначе как деградировавшим не назовешь. Да что там говорить — в некоторых приложениях и тестах, включая 3D Mark, сомнительные изделия на GeForce2 MX 200 могут отставать от видях TNT2 Pro, созданных на чипах прошлого поколения. Не иначе как выпуском этого продукта NVIDIA хотела всем доказать, что она способна создать и плохую, псевдосовременную видеокарту :-).

Рис. 2   Рис. 3   Рис. 4

Мы же начнем рассмотрение младшей линейки видеокарт — GeForce2 MX — с приличных моделей.

Сначала поглядим, что утратил GeForce2 MX(400) по сравнению с оригинальным GTS. Сразу скажу, что по функциональным возможностям обе карты идентичны — вы не найдете ни одной аппаратно реализованной процедуры, которую бы GTS поддерживал, а MX — нет. Разница между этими двумя типами карт заключается в ощутимо отличающемся уровне производительности, который они обеспечивают. А возникает эта разность потому, что число конвейеров рендеринга у MX — варианта GeForce2 — составляет всего два, то есть сокращено вдвое. Из-за этого и скорость fillrate пропорционально снизилась. Кроме того, если чип GTS использует 128-разрядный интерфейс доступа к DDR-памяти, то у МХ дела обстоят не так радужно — он может задействовать 128-бит интерфейс только для работы с обычной SDRAM памятью, а для DDR-разновидности ОЗУ возможен лишь 64-битный интерфейс. То есть можем констатировать, что ширина полосы пропускания памяти у «нормального» МХ-варианта урезана вдвое. Вот благодаря такому двойному «обрезанию» из GTS и получился МХ-вариант GeForce2. Сколько производительности откусило такое «обрезание», можно увидеть на диаграммах результатах тестирования.

Правда, у GeForce2 MX появилась поддержка TwinView — возможности подключения двух дисплеев. Но вряд ли это можно считать актуальным, так как модели выпущенных карт с такой поддержкой сосчитываются на пальцах одной руки, а об их популярности что-то ничего не было слышно.

Следует отметить, что поскольку многие производители плат склонны к выпуску GeForce2 MX 400 с «медленной» 166-МГц памятью (положено 183 МГц), то такие видеокарты имеют быстродействие практически на уровне «предка» GeForce2 MX. Дело в том, что, как показывает практика, большая частота чипа у MX-карт приводит к видимому ускорению работы только в невысоких разрешениях и при 16-битном цвете. Так что толку от «раскочегаренного» до 200 МГц ядра никакого. А вот прирост частоты памяти действительно очень актуален для такого рода карт. Так что будьте бдительны при покупках.

Теперь перейдем к GeForce2 МХ200. В этой линейке видеоядро обычно работает на 175 МГц, а память — на 166 МГц, но возможны и отклонения, как правило, в худшую сторону :-). Однако такие частоты были бы еще ничего (они на уровне GeForce2 МХ), если бы модификацию МХ200 не постигла одна беда — эти карты рождены «заторможенными», так как не могут быстро «думать». Дело в том, что нашим несчастным видяшкам еще вдвое урезали ширину шины памяти. А потому видеокарты на базе MX 200 обладают лишь 64-битной шиной памяти обмена с SDRAM, а не 128-битной, как платы на GeForce2 MX и MX 400. А ведь даже у полноценных МХ’ов полоса пропускания памяти является узким местом! Чего же ждать от GeForce2 МХ200? Даже лысым ежам понятно, что именно «памятная» особенность, а вовсе не частоты ядра и памяти, является хорошим поводом отнести такие карты к категории отстойных, особенно глядя на демонстрируемую ими производительность.

В связи с тем, что платы GeForce2 MX 200 и GeForce2 MX 400 могут быть очень похожи, то, как мы уже писали (см. статью О.Касича «Как казаки МХ покупали», МК, № 51–52 (170–171)), некоторые фирмочки начинают выдавать первое за второе. Чтобы хоть как-то визуально отличить продукты, можно воспользоваться советом (инфа для чайников — он не на все случаи жизни) ребят из «Ф-Центр»’а: «…потенциальным покупателям будет небесполезно знать, как можно отличить друг от друга платы с разной шириной шины памяти. Дело в том, что чипы памяти с организацией 4Mx16 (16-битные), обычно (в случае, если на плате установлено 32 Мб памяти четырьмя чипами) применяющиеся в платах с 64-битной шиной, имеют 54-контактный корпус. Чипы же памяти с организацией 2Mx32 (32-битные), которые используются в аналогичных случаях на платах со 128-битной шиной памяти, имеют 86-контактную упаковку. Поэтому внимательного взгляда должно быть вполне достаточно, чтобы разоблачить нечистого на руку продавца».

Не лишний третий

Следующим, вне всяких сомнений, выдающимся продуктом, выпущенным компанией NVIDIA, стал GeForce3 (рис. 5). По моему скромному мнению, его покупка на сегодняшний день гораздо более оправдана, нежели приобретение аналогичных по цене карт GeForce4 МХ. Дело в том, что в 3-м реализовано гораздо больше аппаратных возможностей по обработке графики, включая пиксельные и вершинные шейдеры, красоты от работы которых вы можете оценить хотя бы в том же 3D Mark 2001.

Итак, поглядим, какие же достижения воплотила NVIDIA в GeForce3. Технологический процесс производства чипа улучшился — 0.15 мкм, а количество транзисторов в микросхеме выросло до 57 миллионов, хотя частота ядра и осталась неизменной — 200 МГц, если сравнивать с GTS. Не изменилось и число пиксельных конвейеров рендеринга, а также текстурных блоков на каждом конвейере. Зато появилась возможность наложения до четырех текстур на один пиксель за один проход, хотя на это и требуется два рабочих такта, если число накладываемых текстур больше Рис. 5двух. Поддерживаются текстуры до 4096x4096х32 бит.

Обмен с памятью типа DDR SDRAM и SGRAM общей емкостью до 128 Мб у GeForce3 производится по 128-битному интерфейсу. Частота оперативки изначально была определена в 460 (230 DDR) МГц.

RAMDAC на 350 МГц дает возможность видеокарте с 3-м GeForce поддерживать максимальное разрешение 2048x1536 при 75 Гц. Обеспечена и опция подключения монитора по цифровому DVI-интерфейсу. Заявлена полная аппаратная поддержка всех возможностей OpenGL 1.2 и DirectX 8.0, в том числе вершинных (Vertex Shaders) и пиксельных шейдеров (Pixel Shaders). Реализована работа тесселяции (задание лишь контрольных точек поверхности, на основании которых чип строит мат. модель объекта, затем разбивая ее на оптимальное число полигонов, что экономит вычислительные ресурсы, особенно при передаче данных) гладких поверхностей при помощи прямоугольных и треугольных патчей (RT Patches). К типам поддерживаемого картой GeForce3 рельефного текстурирования добавился, кроме Embosing и Dot Product3, имевшихся в более ранних продуктах, еще и EMBM. Впервые появившееся в Matrox Millennium G400/G450 рельефное текстурирование по методу EMBM, наконец-то, воплотилось и в продукции NVIDIA. Метод получения рельефной поверхности EMBM с помощью наложения рельефа картой среды позволяет добиться эффекта объемности, недостижимого никакими комбинациями текстур.

Помимо того, реализованы аппаратные средства для экономии полосы пропускания видеопамяти. Это поддержка сжатого формата буфера глубины (Z-buffer) и упреждающего определения видимости точек (HSR).

Давайте подробней рассмотрим основные достоинства GeForce3, превозносящие его над «наследием предков». Как уже говорилось, между аппаратными шейдерами, реализованными NVIDIA в GeForce2 GTS, и шейдерами, явленными Microsoft в DirectX8, наблюдалась несовместимость. Основная проблема заключалась в том, что у GeForce2 для определения цвета пикселя за проход могли быть скомбинированы лишь 2 текстуры, чего явно недостаточно для получения впечатляющих сознание юзеров эффектов. С выходом GeForce3 эти проблемы были решены и подобного безобразия больше не наблюдается — шейдеры работают, как им и положено.

Кстати, о птич… о шейдерах. Шейдеры — это маленькие такие программы. Пиксельные шейдеры — это программки, управляющие модулями наложения текстур. Они могут пошагово задавать процедуру наложения текстур и определения цветов пикселей.

Вершинные шейдеры представляют собой программульки, с помощью которых блок T&L озадачивается выполнением геометрических вычислений и преобразований. При помощи этих шейдеров можно получить расчет освещенности, прозрачности и текстурных координат, добиться эффектов объемного освещения и объемного тумана, всевозможных деформаций объектов. По большому счету применение вершинных шейдеров, хотя и ограничивается максимальной длиной программы, в основном зависит исключительно от творческих порывов разработчиков. GeForce3 может интерпретировать вертексные шейдеры длиной в 128 команд, что позволяет программировать весьма сложные преобразования объектов. Немаловажным является и тот факт, что использование вершинных шейдеров позволяет ощутимо разгрузить ЦПУ. Например, расчет повторяющихся геометрических преобразований для множества объектов одного вида можно возложить на блок T&L GeForce3, используя всего один шейдер.

Пиксельные шейдеры, в случае если видеокарта их не поддерживает, эмулировать не получится. А вот вершинные можно бы эмулировать, взвалив работу на центральный процессор. Однако такой подход ведет к ощутимому падению производительности ПК и не оправдывает себя.

По-новому проявляет себя GeForce3 и при обеспечении антиалиасинга, а если по-русски :-), то при сглаживании «ступенек» на наклонных линиях в изображении. В отличие от применявшегося ранее метода «гладить все подряд» (FSAA), GeForce3 умеет производить сглаживание ломаных линий только там, где это необходимо, то есть на границах полигонов. Немаловажно, что при этом текстовая информация на игровом изображении не «мылится», а остается четкой и читабельной. Помимо этого, GeForce3 умеет проводить полноэкранное сглаживание на основе мультисэмплинга (MSAA) — метода, который существенно экономит текстурный fillrate, ибо при его применении используется одно вычисленное значение цвета для всех пикселей сглаживаемого блока (как правило, 1x2 или 2x2). Одним их вариантов такого метода является реализованная аппаратно технология Quincunx, которая обеспечивает качество сглаживания уровня 4х при скорости работы, ненамного уступающей режиму сглаживания 2х.

Технология HSR (название полностью звучит как Hidden Surfaces Removal), как нетрудно догадаться, отвечает за то, чтобы избежать ненужных расчетов для объектов, скрытых на сформированном изображении за другими полигонами, выполнять работу над которыми не имеет практического смысла.

Кстати, и GeForce3 в итоге «расползся» на подвиды GeForce3 Ti 500 и Ti 200. Первый — хорошо разогнанный (благодаря повышению тактовых частот ядра и видеопамяти до 240/500 МГц) вариант, а второй, как нетрудно догадаться, «заторможенный» — ориентировочно до частот 175/400 МГц работы чипа и памяти.

Виража на чудесах

Не так давно компания NVIDIA предложила пользователям новое поколение семейства недорогих видеокарт MX. Было анонсировано три продукта, объединенных в общую линейку GeForce4 MX. Отличия между разными моделями заключались в частотах работы графического ядра, а также частотах и типе применяемой видеопамяти. Если производители карт придерживаются рекомендаций NVIDIA, то приобретая GeForce4 MX460, пользователь вправе рассчитывать на частоты работы ядра и видеопамяти в 300 и 550 (275 DDR) МГц соответственно. Покупая GeForce4 MX440 (рис. 6), юзеры могут надеяться на 270 и 400 (200 DDR) МГц частоты работы чипа и памяти. Обе вышеназванные видеокарты работают по 128-битной шине обмена с DDR SDRAM видеопамятью. А вот у GeForce4 MX420 (рис. 7) частоты работы ядра и видеопамяти «всего» 250 и 166 МГц. Конечно, это далеко не GeForce2 MX200, но у таких карт есть своя ахиллесова пята — 128-битный обмен осуществляется только с памятью SDRAM, а появившиеся на рынке карты этого типа с DDR-памятью имеют 64-битный доступ к ней. Тут как раз самое время напомнить, что на одинаковой тактовой частоте работа по 128-бит шине с SDRAM-памятью гораздо эффективнее, нежели по 64-битной с DDR.

Рис. 6   Рис. 7

По своим тактико-техническим :-) характеристикам, несмотря на присутствие в название цифры 4, свежеиспеченные МХ видеокарты, несомненно, уступают GeForce3. Новым видяхам присуща архитектура пиксельных конвейеров с двумя текстурными модулями на каждом, характерная еще для GeForce2: они могут наложить не более двух текстур за один проход. Нет у этих видеокарт ни поддержки EMBM, ни пиксельных шейдеров. Вершинные шейдеры, правда, поддерживаются. Но что толку, если красоту на самом деле формируют-то шейдеры пиксельные? А вершинные так, для геометрии... Хотя поклонники кубизма, несомненно, будут рады.

Однако и от полноценных GeForce4 Ti МХ’ам достались некоторые детали усовершенствованной архитектуры. Это технологии HSR и Lightspeed Memory Architecture II. Последняя отвечает за оптимизацию работы с видеопамятью. Хотя и здесь не обошлось без «жертв». В отличие от GeForce4 Ti и GeForce3, обладающих 4-мя 32-битными каналами памяти (эффективно при обмене с видеопамятью при передаче небольших блоков данных), GeForce4 MX «обошелся» 2-мя каналами по 64 бита.

А еще 4-ми МХ’ами поддерживается антиалиасинг на основе мултисэмплинга (MSAA), режим 2x. Был немного усовершенствован Quincunx-метод сглаживания по сравнению с применявшимся в GeForce3. Появился и новый метод сглаживания — 4xS.

Традиционно для МХ’ов обеспечена поддержка многомониторных возможностей: в наличии 2 встроенных CRT-контроллера, дающих возможность вывода двух разных и независимых по разрешению изображений на всевозможные устройства отображения, на борту 2 интегрированных RAMDAC по 350 МГц, есть поддержка выхода на TV. Не забыли интегрировать в чип и TDMS трансмиттер для поддержки DVI-интерфейса, набирающего все большую популярность с распространением ЖК-мониторов.

Э-эй, ухнем…

Ну да пора кончать с теорией и переходить, что называется, к практике. Ведь как бы хорошо ни звучало описание продукта на словах, но узнать реальные его способности можно, только проверив девайс в деле. Чем мы сейчас и займемся.

Сначала пару слов о тестовой конфигурации и самих видеокартах, принявших участие в нашем тестировании.

Наша тестовая платформа вышла весьма нехилой, даже сам удивляюсь :-): Pentium 4 2.53 ГГц, плата Intel 850 MV на чипсете i850, 512 Мб РС1066 RDRAM было установлено в качестве ОЗУ, жесткий диск Seagate Barracuda ATA IV 40 Гб 7200 об/мин, OC-Windows ME. Для всех видеокарт использовался драйвер DetonatorXP 29.42.

Видеокарты. Inovision Tornado GeForce2 MX200 64 Мб SDRAM (рис. 8) — маленькая карточка в маленькой коробочке, зато элементы монтажа красуются на черном текстолите. 1 СD в комплекте, мануал. Показатели ее быстродействия под стать ее размерам. Достаточно сказать, что приведенное на диаграмме 3 значение быстродействия для этой карты в разрешении 1280х1024 дано в 16-битном цвете, так как 32-битный она «не потянула». И это в нынешние то времена!

Inovision Tornado GeForce2 MX400 32 Мб SDRAM (рис. 9) тоже небольшая платка на черном текстолите, но уже в значительно большей коробке. Комплект идентичный — мануал да компакт диск.

А вот Inovision Tornado GeForce2 GTS 32 Мб DDR (рис. 10) куда больший милашка — он оснащен 4-контактным S-Video разъемом ТВ-выхода, имеет переходник с этого типа разъема на композитный, плюс композитный же кабель. Набор софта к видяшке просто охренительный — он разместился на 5 компактах, среди которых есть и гейма Midnight GT. Конечно же, имеется, как и в предыдущих случаях, простенький мануал. Установленная на пате 5.5-нс SGRAM-память Infenion позволяет надеяться на неплохой разгонный потенциал памяти, штатно работающей всего на 333 (реально 166 DDR) МГц.

Рис. 8   Рис. 9   Рис. 10

У карты Inovision Tornado GeForce2 GTS Ti 32 Мб DDR (рис. 11) комплектация полностью аналогична предыдущему варианту, а вот установленную на ней память ASCEND 5 нс уже почти до предела разогнали до нас :-).

Так, дошел до «милашки» Inovision Tornado GeForce3 64 Мб DDR (рис. 12). Лучшая из представленных в обзоре видеокарт. Как по функциональным возможностям и производительности, так и по оснащению. Черный текстолит. Радиатор не только на чипе, но и на памяти. Красиво, без излишеств. В комплекте 5 СD. Четыре из них такие же, что и в наборе предыдущих двух карт: на компактах разместились драйверы, Win DVD 2000, Inovision Creation Media Gallery, Photoimpact 5. Игрушка уже не Midnight GT, а Incoming Forces. Отличная, кстати, возможность оценить шейдерные красоты.

A-Open GeForce4 MX 420 64Мб SDRAM (рис. 13) — плата на черном текстолите, хоть и маленькая, зато уместила два видеовыхода — композитный и S-Video. Кабелей, правда, нет, но мануал и компакт, как и положено, в наличии. Память A-DATA 6 нс. Можно немного подогнать. На видеочипе установлен только радиатор, вентилятор отсутствует.

Рис. 11   Рис. 12   Рис. 13

Sparkle GeForce4 MX 420 64 Мб SDRAM (рис. 14) — видеокарта без претензий на излишества. Самый обычный Спаркл. Зеленый текстолит. Память VIGOR 6 нс. ТV-out’ы: S-Video и композитный. Кабель S-Video в комплекте. Компакт с драйверами. Мануал. Просто и со вкусом. То же касается и старшей сестры упомянутой видеокарточки —Sparkle GeForce4 MX 440 64 Мб DDR (рис. 15), имеющей сходную комплектацию, но обладающей всего одним видеовыходом S-Video. Ну и память у ней получше — 5 нс DDR от Hynix.

A-Open GeForce4 MX 440 64 Мб DDR (рис. 16) отличает черный текстолит, память Samsung 5 нс, ТV-out без кабелей и два компакта в комплекте — один с драйверами, второй с Win DVD. О последней софтине я уже как-то писал — она настолько блюдет лицензионные соглашения, что ее просто страшно ставить на свою машину :-).

Рис. 14   Рис. 15   Рис. 16

Ну а еще чисто в познавательных целях в тестировании принимала участие видяшка 3D Club ATI Radeon 7500. Поэтому несколько слов о ней. Платка небольшая, имеет композитный и S-Video выходы, в комплекте композитный кабель. Память Samsung 4 нс, так что потенциал есть :-). Прилагается целых 2 мануала: один серьезный англо-китайский, второй (мини) — немецкий. В коробке с карточкой нашлось 3 CD — с драйверами, Win DVD 2000 и игрой Rune. Жаль, что уже довелось пройти нелицензионный вариант… Да, вот еще, с родным драйвером плата упрямо вылетала из 3D Mark 2001 SE. После нервной скачки :-) и установки драйвера WME-RADEON-4-13-9016-EFG, обнаруженного на официальном сайте АТI, проблемы в работе исчезли.

Частотные характеристики работы рассматриваемых видеокарт представлены на диаграмме 1. А гонять мы их будем в 3D Mark 2001 SE (диаграмма 2) для оценки производительности в Direct3D, и в Quake III (диаграмма 3), чтобы узнать, на что они способны в Open GL.

Ну а теперь, собственно, о показанных картами результатах. Как нетрудно было догадаться, если внимательно изучить матчас… то есть теорчасть, безоговорочным лидером среди протестированных видеокарт должен был оказаться и таки оказался GeForce3. Он демонстрирует трех-четырехкратное превосходство по производительности над GeForce2 MX200, хотя при нынешних расценках на видеокарты его стоимость даже вдвое не превышает цену 200-х MX’ов.

Легко обходит GeForce3 и GeForce4 MX 440. Отставание последних достигает 20 % как в Direct3D, так и в Open GL. С GeForce4 MX 420, как и следовало ожидать, картина складывается куда более неприглядная. Печально, но по продемонстрированному уровню быстродействия эти карточки отстали в большинстве тестовых задач даже от GeForce2 GTS, не говоря уже о версии GeForce2 Ti (диаграммы 2, 3). Причем превосходство Ti-варианта GeForce2 можно назвать ощутимым — оно варьирует от 18 % в Direct3D до 30 % (!) в Open GL, в чем легко убедиться, глядя на диаграммы 2 и 3. В свою очередь преимущество GeForce4 MX 440 над GeForce4 MX 420 доходит в Direct3D до 45 % (диаграмма 2), а в Open GL — и до всех 50 % (диаграмма 3). ATI Radeon 7500, имеющий примерно одинаковые с GeForce4 MX 420 частоты работы чипа и памяти, также довольно легко обгоняет эти карты по уровню производительности как в Direct3D при высоких разрешениях, так и в Open GL. В GL Radeon 7500 даже удалось дотянуться до показателей «прославленного ветерана» GeForce2 GTS. Весьма похвально.

Диаграмма 1   Диаграмма 2   Диаграмма 3

Самыми медленными, как и следовало ожидать, оказались видяшки GeForce2 МХ200 и МХ400. И если уровень производительности последней еще находится в рамках приличия (отставание от GeForce4 MX 420 не превышает 30 % в Direct3D и 26 % в Open GL), то быстродействие GeForce2 МХ200 не выдерживает никакой критики. Отставание этой карточки от GeForce4 MX 420 в Direct3D приближается к цифре 63 % (то есть из каждых 100 кадров, легко отрендеренных на MX 420, МХ200 способен «проглотить» 63, выдав вместо 100 всего 37 кадров/с) и к 60 % — в приложениях Open GL. А ведь GeForce4 MX 420, как мы выяснили, и сама по себе карта не из быстрых… Продемонстрированные же GeForce2 МХ200 19 кадров/с при 16-битном цвете в разрешении 1280х1024хСВ (СВ — это значит самая высока детализация, выставляемая вручную, а HQ — высокое качество по умолчанию в самой игре) иначе как удручающими не назовешь. Это на нашей то тестовой платформе! Поэтому давайте дружно заклеймим позором карточки GeForce2 МХ200 как врагов игрового народа :-).

Подытоживая сказанное, можем констатировать тот приятный факт, что добротно сделанные карты от разных производителей демонстрируют и одинаковое быстродействие. Чтобы убедиться в этом, достаточно посмотреть на результаты, показанные видеокартами A-Open и Sparkle — при одинаковых частотах работы графического чипа и памяти показатели, характеризующие работу девайсов, практически идентичны.

За сим нижайше кланяюсь и выражаю благодарности:

фирме Eletek за предоставленные видеокарты Inovision;

компании К-Трейд за чудные изделия A-Open и Sparkle;

компании Навигатор за 3D Club ATI Radeon 7500;

украинскому представительству компании Intel за материнскую плату и процессор.

Рекомендуем ещё прочитать:






Данную страницу никто не комментировал. Вы можете стать первым.

Ваше имя:
Ваша почта:

RSS
Комментарий:
Введите символы или вычислите пример: *
captcha
Обновить





Хостинг на серверах в Украине, США и Германии. © sector.biz.ua 2006-2015 design by Vadim Popov