Тест карты gtx 560 ti. Охотник в титановых доспехах

NVIDIA не заставила себя долго ждать с ответом. Новая видеокарта по цене находится между HD 6870 и HD 6950. Рекомендованная цена для российской розницы составляет 9999 рублей, но реальная цена зачастую оказывается несколько меньше. Это связано с тем, что в среднем ценовом сегменте конкуренция очень высока не только между производителями чипов. Вендоры и магазины тоже вовсю стараются заманить к себе клиентов. Цены на HD 6870 начинаются примерно с 7800 рублей, а HD 6950 можно купить за 10700. Производители стараются при любой возможности не допускать прямой конкуренции между своими продуктами и моделями конкурентов, поэтому в ценовом позиционировании новинки нет ничего удивительного. К тому же NVIDIA хотелось как можно ближе подойти к той самой «sweet spot», куда в свое время была нацелена GTX 460. Отметим, что рекомендованные цены на момент анонса GTX 460 составляли 7999 рублей за версию с 768 МБ памяти и 8999 рублей за гигабайтную карту. Почему же новинка стоит заметно дороже? Ответ кроется в названии: NVIDIA GeForce GTX 560 Ti.

Почему Ti?

Незадолго до анонса в сети появились новости о том, что видеокарта, приходящая на смену GTX 460, будет называться GeForce GTX 560 Ti. Именно индекс «Ti» привлек внимание общественности. Последний раз NVIDIA применяла его во времена серии GeForce 4, и обозначал он использование программируемых шейдеров. После того, как их наличие стало стандартом де-факто для новых видеокарт, этот индекс пришлось убрать, дабы не вносить путаницу. А путаницы и так было предостаточно. GT, GTO, GTS, GTX, GS, GX2, MX, LE, SE, Ultra, XL, XT… примерно так выглядит список буквенных индексов, которые NVIDIA использовала с того момента.

Начиная с серии GeForce 7, у компании наметилась тенденция к некоторому упрощению системы именования видеокарт. Она стремилась сделать ее как можно более прозрачной для пользователя. С выпуском 200-й серии производительность видеокарты в первую очередь определялась индексом, состоящим из трёх цифр. Цифровое кодирование по принципу «чем больше - тем лучше» на руку как пользователям (например, очевидно, что GTX 480 быстрее, чем GTX 460), так и производителю (модели новой серии автоматически привлекают к себе больше внимания). Некоторые буквенные индексы было решено оставить, но они лишь примерно указывали на мощность видеокарты и использовались в основном из-за своей узнаваемости.

Впрочем, система с цифровой индексацией иногда давала сбои. Например, так появилось название GeForce GTX 260 Core 216. Выпустить эту карту было нужно, а индекс под нее в свое время предусмотрен не был. Похожая ситуация сложилась и с GeForce GTX 460. NVIDIA посчитала целесообразным одновременно анонсировать 2 версии видеокарты, отличающиеся в первую очередь объемом видеопамяти. В будущем компания также начала аккуратно выделять в отдельный класс разогнанные GTX 460, так как GF104 отличался очень внушительным потенциалом. Своей цели она добилась - новый чип прописался на видеокартах стоимостью от $200 до $250, при этом соотношение производительность/цена для всех этих моделей оставалось примерно на одном уровне. Однако путаница из-за этого возникла почище прежней.

В январе 2011 года nVidia порадовала всех своих почитателей выходом видеокарты пятого поколения GeForce GTX 560, пришедшей на замену старшему собрату GTX 460, позаимствовав у него графическое ядро GF104, которое немного оптимизировали и назвали GF114, в связи с чем и получили прирост производительности. Видеокарта идеально подойдет для игр даже 2015 года на средних и минимальных настройках. Однако так ли высока оказалась мощность GTX 560 относительно 460 модели, чтобы переплачивать за нее? Об этом и не только речь пойдет ниже.

Основные характеристики

  • Техпроцесс: 40 нм
  • Ядро видеокарты: GF114
  • Количество исполнительных процессоров (SPU): 336
  • Частота SPU: 1620 МГц
  • Частота ядра видеопамяти: 810 МГц
  • Частота видеопамяти: 2004 МГц
  • Тип памяти: GDDR5
  • Объем видеопамяти: 1 Гбайт
  • Ширина шины: 256 бит
  • Количество текстурных процессоров: 56
  • Количество блоков растеризации: 32
  • Потребление энергии: 170 Ватт

Производитель видеокарты и различные конфигурации от других компаний

Главный производитель видеокарты — конечно же компания nVidia. Стоит сказать, что компанией было выпущено три модификации видеокарты, оригинальная поступила в продажу в 3 видах: обычная, разогнанная GTX 560 с постфиксом «TI» и урезанная версия 560 SE, также вышла видеокарта для мобильных ноутбуков GTX 560M. Многие зададутся вопросом, а для чего, собственно, надо было урезать видеокарту. Ответ явный: дело в том, что номинальная производительность GTX 560 была на порядок выше, чем у GTX 460, а цена особо не выросла. И, чтобы не понести убытков от производства данного видеоадаптера, было решено заблокировать часть шейдерных блоков, в итоге место заявленных 336 унифицированных процессоров на прилавок в основном количестве поступила видеокарта с 288 универсальными конвейерами со сниженной частотой SPU, частотой ядра, с меньшим количеством текстурных и пиксельных блоков и, самое главное, меньшей шиной памяти. А улучшенная версия видеокарты была представлена в виде модификации GTX 560 TI, стоимость которой примерно на 40% или где-то на 4000 рублей выше, чем у GTX 560 SE. Таким образом, показатели урезанной версии видеокарты оказались ровно такими же, что и у GTX 460. Из этого можно сделать вывод, что переплачивать за свежее название не стоит и если уж брать GTX 560, то только в версии «TI», которая значительно производительней GTX 560 SE и уж тем более GTX 460.

Существуют и другие конфигурации GTX 560, к примеру, от известных компаний Manli и Gigabyte:

Manli GeForce GTX 560 TI не отличается от оригинала в принципе ничем, если не учитывать более высокую частоту SPU на целых 4 мегагерца. Ирония, но по-другому тут реагировать не приходится.

А вот компания GigaByte более ответственно подошла к производству своей модификации данного видеоадаптера, улучшив Gigabyte GeForce GTX 560 частоту видеопроцессора с 810 до 830 МГц, что, к слову, даже выше, чем у GTX 560 TI с ее 822 МГц. Также повышена частота унифицированных вычислительных процессоров с 1620 до 1660 МГц. Все это существенно улучшило производительность видеоадаптера по сравнению с оригинальной GTX 560 от NVIDIA, при этом цена за видеокарту выросла лишь немного, что позволяет при покупке данного видеоадаптера отдать предпочтение компании GigaByte.

nVidia GeForce GTX 560 vs AMD Radeon HD 6950 1 GB – битва машин

Как только nVidia выпустила видеокарту 5-го поколения с улучшенной производительностью, AMD тут же дала свой ответ – Radeon HD 6950 1 GB. Если сравнивать энергопотребление и температуру видеокарт, то ответ, думаю, будет очевиден: GeForce GTX 560 существенно выигрывает у противника. Несмотря на то, что энергопотребление у видеоапаптера nVidia выше на 15 ватт в нагрузке, температура его в простое составляет 29 градусов при 42 у радеона, а при нагрузке 68 градусов против 79 у Radeon HD 6950, следовательно, риск перегрева GTX 560 гораздо ниже, чем у конкурентной радеоновской видеокарты. При этом уровень шума вентиляторов, издаваемых в нагрузке у GTX 560 на 5 децибел меньше, чем у оппонента из AMD, такая разница заметно сглаживает дискомфорт, испытываемый пользователем из-за шума кулеров ПК.

Пришло время сравнить их производительность в независимом тестировании данных видеокарт и наконец выяснить, что мощнее – бесшумная и безопасная NVIDIA GeForce GTX 560 или менее прожорливая, но более «пыхтящая» AMD Radeon HD 6950.

В ходе тестирования была использована следующая конфигурация оборудования:

  • МП — eVGA X58 Classified
  • Процессор – Intel Core I7 965, 3.7 ГГц
  • Видеоадаптеры – GeForce GTX 560 TI и Radeon HD 6950 1 ГБ
  • ОЗУ — Corsair 6144 МБ (3x 2048 МБ) DDR3 1500 МГц
  • Блок питания – 1.2 Киловатт
  • ОС: Windows 7, 64 бит с поддержкой DX9 — DX11

Игры и бенчмарки, в которых проводилось тестирование:

  1. Call of Duty — Modern Warfare 2 – настройки max, разрешение 1920 x 1200
  2. Far Cry 2 — настройки высокие, разрешение 1920 x 1200
  3. Anno 1404 – настройки max, разрешение 1920 x 1200
  4. Crysis WARHEAD – настройки высокие, разрешение 1920 x 1200
  5. Metro 2033 – настройки max, разрешение 1920 x 1200
  6. Battlefield Bad Company 2 – настройки max, разрешение 1920 x 1200
  7. Colin MC Rae Dirt 2 – настройки max, разрешение 1920 x 1200
  8. 3DMark Vantage
  9. 3DMark 11
Radeon HD 6950 1 GB
Call of Duty — Modern Warfare 2 123 fps 129 fps
Far Cry 2 81 fps 76 fps
Anno 1404 68 fps 78 fps
Crysis WARHEAD 47 fps 51 fps
Metro 2033 23 fps 25 fps
Battlefield Bad Company 2 47 fps 50 fps
Colin MC Rae Dirt 2 66 fps 72 fps
3DMark Vantage 19925 17912
3DMark 11 4311 4973

Какой вывод можно сделать из представленной выше таблицы? Видеокарта Radeon HD 6950 существенно опережает GTX 560 TI по вычислительной мощности и скорости обработки кадров. Достигается это, прежде всего, за счет большего числа текстурных блоков у радеоновской карты (88 против 64 у GTX 560 TI), стоит отметить и большее количество унифицированных исполнительных процессоров (1408 у Radeon HD 6950 против 384 у GTX 560 TI), однако это не сильно влияет на быстродействие, так как ядро Cayman Pro, на базе которого создана Radeon HD 6950 будет немногим опережать по производительности GF114.

Несмотря на разницу в бенчмарках, в играх радеоновская карта мало чем лучше джифорса. Это проясняется в результате сравнения fps в играх при работе двух видеоадаптеров, потому, учитывая их температуры при нагрузках, я бы рекомендовал все же nVidia GeForce GTX 560 TI, ведь риск перегрева у джифорса гораздо ниже, чем у оппонента из AMD.

Разгон nVidia GeForce GTX 560

Для разгона было использовано то же тестовое оборудование, что и при сравнении GTX 560 с Radeon HD 6950. У GTX 560 TI была повышена частота ядра с 822 до 950 МГц, увеличено количество шейдерных процессоров с 1644 до 1900, а также частота видеопамяти с 4008 до 4800 МГц.

Разгон проводился утилитой Afterburner, при этом напряжение не изменялось, как и работа кулеров.

Настройки в играх ставились высокие, разрешение 1920 x 1200

Результаты оверклокинга:

GeForce GTX560 – разгон
Call of Duty: Modern Warfare 2 123 fps 141 fps
Battlefield Bad Company 2 54 fps 47 fps
3DMark 11 4749 4311

Как видно из результатов разгона, он будет вполне оправдан, так как fps заметно повышается, как и вычислительная мощность при работе в профессиональных программах, например, Sony Vegas. Но не забывайте следить за температурным режимам, так как несмотря на все меры повышения надежности своих видеокарт, предпринимаемых NVIDIA, риск перегреть ее при разгоне остается несмотря ни на что.

На десерт:

Результаты работы NVIDIA GeForce GTX 560 в некоторых играх 2015-2016 года:

Ведьмак 3: Дикая охота (2015) – средние настройки. Одна из самых прожорливых современных игр. Внимание! 35 fps! Восхитительный результат для видеокарты 2011 года, не правда ли?

CS : GO – максимальные настройки. 200 fps!

GTA 5 (2015) – высокие настройки, разрешение 1360 x 768, вертикальная синхронизация 50%. 30 fps!

Таким образом, данная видеокарта идеально подойдет как для прикладных, так и для игровых решений и потянет подавляющее большинство прожорливых игр на средних настройках. И это с учетом ее стоимости в 4000-5000 рублей на сегодняшний день! А модификации, к примеру, от Gigabyte еще круче. Моя оценка видеокарте: 8 из 10, минус за урезанные модификации GeForce GTX 560 SE, хотя nVidia в этом плане можно понять – компания заботится не только о пользователях, но и о прибыльности дела, это вполне закономерно.

Сейчас на рынке видеокарт все стало намного проще и прозрачнее. Ранее же, когда конкуренция между AMD и NVIDIA была самой жесткой, выход моделей вызывал недоумение. Все дело в том, что в 2010-2011 годах решено было избавиться от дискретной графики в угоду однокристальным решениям.

В то же время начинается неразбериха и со стоимостью. Мощные видеокарты становятся убыточными за счет своей непопулярности. В то время игровая индустрия не так ярко пестрила разнообразными проектами, которые требовали бы сверхграфики. Поэтому обычному пользователю не было смысла покупать адаптер за 500 долларов, а для его полной реализации еще и монитор за тысячу.

Непростая ситуация

До появления новой видухи GTX 560 Ti, характеристики которой не слишком заметно отличались от предыдущего поколения, ситуация на рынке этой продукции была достаточно сложная. В начале года доминировала компания AMD со своей 5000-й серией. NVIDIA, как ни старалась, выпуск видеокарт задерживала. После появилась версия GTX 460, которая вкупе со всеми модификациями стала действительно неплохим вариантом.

Следом были анонсированы обновленные модели от одной и второй компании. В итоге вышли видеокарты Radeon HD 6900, GTX 580 и GTX 570. Первая модель стала намного востребованней, так как в своем ценовой сегменте вообще не имела конкурентов. Ближайшие соперники стоили на 100 долларов дороже.

Далее снова были выпущены несколько серий, которые заняли средний ценовой сегмент. Но вот выпуск NVIDIA GTX 560 Ti, характеристики которой не сильно отличались от конкурентов на первый взгляд, вызвал недоумение. Цена была заметно больше, а разницы не было никакой.

Индекс

Прежде чем узнать о различных модификациях этой версии, стоит познакомиться с индексом «Ti». Сейчас он уже популярен, многие знакомы с ним. Но тогда такое название вызывало вопросы. Компания уже ранее пыталась использовать «Ti» в четвертой серии видеокарт. Они показывали этим то, что производитель использует программируемые шейдеры.

После того как шейдеры стали обычным делом, чтобы среди пользователей не было путаницы, индекс убрали. Также компания хотела упростить названия адаптеров, чтобы они были более запоминающимися.

Следующая сложность возникла как раз с предшественником GTX 560 Ti. Характеристики новой GTX 460 были во всех модификациях практически одинаковыми. Но чтобы выделить адаптеры с разным количеством памяти, решено было использовать индексы. Также возникла потребность отмечать видухи, которые имеют заводской разгон.

Когда появилась карта GTX 560 Ti, стало понятно, что компания планирует занять весь средний ценовой сегмент одним чипом. Кроме того, необходимо было создать хорошую славу всем моделям, которые получили этот индекс.

Различия

Как уже говорилось ранее, модификаций много у видеокарты GeForce GTX 560 Ti. Характеристики их не всегда сильно разнятся. Все же заметны измененный дизайн плат, различные объемы информации, частоты графического ядра и т. д.

Многие модификации этого адаптера уже в коробке имеют заводской разгон. Кроме того, некоторые показывают отличный потенциал и при дополнительном улучшении. Среди наиболее популярных карт этой модели есть варианты от Gigabyte, Sparkle, ASUS и основная от NVIDIA.

Схожие черты

Прежде чем рассмотреть и сравнить модификации этой модели, нужно ознакомиться ближе с GTX 560 Ti. Характеристики у всех вариантов практически одинаковые. Каждая работает в паре с графическим процессором GF114. Выбор этой детали для адаптеров стал ключевым. Если бы производитель решил оставить предыдущую версию чипа, то никаких отличий от предшественника у GTX 560 Ti не было совсем.

Также изменилось и количество потоковых мультипроцессоров. Их стало на один больше - 8 штук. Скалярные процессоры также увеличились до 384 штук. Тактовая частота составляет 822 МГц. По традиции тип памяти GDDR5. Объем в среднем составляет 1 Гб, хотя есть и модификации с другими показателями.

Версия от ASUS

Упакована новая модель от этой компании в обычную коробку. На ней изображен фирменный рыцарь. Спереди указывается модель, также есть информация о некоторых функциях и, конечно же, частота графического ядра 900 МГц с заводским разгоном.

Сзади очень много нужной и ненужной информации аж на 12 языках. Тут представлена вся спецификация видеокарты. Упоминается особая система охлаждения DirectCU II, которую разработал производитель. Идет речь о качественной элементной базе, которая увеличивает срок эксплуатации. Ниже упоминаются рекомендуемые системные требования ПК.

Характеристика

Внешность очень привлекательная у ASUS GTX 560 Ti. Характеристики практически ничем не отличаются от начальной версии. Используется процессор GF114 с нормой в 40 нм. Внутри расположилось 384 шейдерных конвейера и 32 блока растеризации.

Заводской разгон предоставляет частоту 900 МГц. Шейдерный блок работает с 1800 МГц, а память - 4200 МГц. За обмен данных отвечает шина на 256 бит. Память состоит из 8 микросхем по 128 Мб, итого общий объем составляет 1 Гб.

Особенность

Главной изюминкой этой модели является особая система охлаждения. Она состоит из специально разработанного радиатора из алюминия. Он достаточно массивный, пронизан тремя тепловыми трубками из меди. В пластиковом кожухе размещены два вентилятора, у которых доступна регулировка скорости вращения.

Есть также дополнительный радиатор, который разместили на силовых деталях питания. Производитель, устанавливая такую сложную систему охлаждения, сразу подразумевает возможность дополнительного разгона.

В итоге при максимальной нагрузке температура поднимается до 83 градусов. При этом сами вентиляторы работают наполовину от своей мощности. Такой автоматический режим позволяет убрать все неприятные звуки кулеров. Если же запустить вентиляторы на 100%-ю скорость, то при максимальной загруженности температура опустится на 10 градусов.

Кандидат от Gigabyte

От компании Gigabyte видеокарта GTX 560 Ti характеристики получила перспективные. Внешне она выглядит солидно. Сразу бросается в глаза фирменная система охлаждения, которая имеет специальную форму. Кулер состоит из двух вентиляторов и является антитурбулентным.

Разъемов у видеокарты три: два формата DVI и один рассчитан на mini-HDMI. Радиатор получился очень крупным, пластины его соединены с медными трубками теплоотвода. Он имеет также изогнутую форму, которая работает над обдувом всей конструкции платы.

Характеристики

Эта модель адаптера входит в серию Super Overclock. Отличительная черта её - это наличие графического процессора GF114. Объем по стандарту имеет 1 Гб. Состоит также из 8 микросхем, которые функционируют на частоте 5 ГГц.

Ядро работает на частоте 1000/2000 МГц. Память также имеет достаточно высокий показатель скорости - 4580 МГц. Благодаря заводскому разгону адаптер улучшил свои показатели на 20 %. Температура ядра при максимальной нагрузке также порадовала больше, чем в предыдущей модификации - всего 69 градусов. Единственное, есть нарекания к шумности кулера.

Продукт от Palit

Еще одна видеокарта была создана компанией Palit. GTX 560 Ti характеристики имеет схожие с начальными. Кроме того, «домашний» разгон не показал небывалых результатов, но все же подтвердил отзывы пользователей.

Интерфейс карты несколько изменен. Помимо двух разъемов DVI-I и одного HDMI, есть также и VGA-порт. В принципе, такое разнообразие только на руку пользователям. Плата имеет крупные размеры. Система охлаждения здесь намного слабее, чем от Gigabyte.

Массивный радиатор имеет лишь две тепловые трубки из меди. Пластиковый кожух размещен вместе с одним вентилятором. Но пользователю доступна его регулировка. При работе вентилятора на 57 % мощности, температура ядра составляет 80 градусов при максимальной нагрузке. Такой показатель является допустимым, но все же для «домашнего» разгона требует дополнительной страховки.

Характеристика Palit

Эта видеокарта GTX 560 Ti характеристики получила неплохие. Лучше проводить разгон после покупки, тем более потенциал адаптера позволяет это делать. Показатель частоты ядра удалось поднять до 960 МГц. Конечно, прирост в 16 % не рекордный, но тоже приемлемый.

Частота памяти улучшилась на 18 % и составила 4740 МГц. Такой результат приятен. Хотя стоит учитывать то, что вентилятор при этом должен работать на полную мощность. А такой вариант понравится далеко не всем геймерам.

Выводы

Видеокарта у NVIDIA GeForce GTX 560 Ti характеристики получила неплохие для среднего ценового сегмента. Все модификации легко обогнали прямых конкурентов от AMD: Radeon HD 6950 и даже более мощный Radeon HD 6970.

В гонке за первенство победила модификация от Sparkle. Calibre X560 не особо отличается от продукта фирмы Gigabyte , но все же по показателям частот немного обгоняет его. Также выигрывает в этой гонке за счет отличной системы охлаждения: она является тихой и одновременно мощной.

Версия от Gigabyte тоже не пасет задних. Кроме оригинального внешнего вида, карта получила и хорошую охладительную систему, которая также влияет на производительность. Уступает предыдущей версии только потому, что частота памяти меньше на 220 МГц. Конечно, на практике это может быть заметно, но для непривередливых пользователей окажется сущим пустяком.

Вообще говоря, в свое время GTX 560 Ti являлась отлично видеокартой. Она стала неплохой заменой своего предшественника GTX 460. В целом она достаточно тихая, производительная и качественная. Со всеми играми того времени она справлялась хорошо. Конкурентов от AMD также смогла оставить позади, а поэтому для многих оказалась лучшим вариантом за свою стоимость.

Раздел: ,
Источник: 3DNews |

Череда неудач, которая преследовала компанию NVIDIA на протяжении практически всего 2010 года, судя по всему, наконец прервана. Глубокий редизайн графического ядра GF100 позволил NVIDIA выпустить на рынок пару достаточно мощных ускорителей, благодаря которым чипмейкер смог вернуть себе титул абсолютного чемпиона в классе одночиповых решений старшего уровня. Публика, интересующаяся ситуацией на рынке видеокарт, ожидала молниеносного и сокрушительного ответа со стороны «красного гиганта» - компании AMD, однако, полноценного ответа не получилось. Изменения архитектуры, внедрение новых технологий и рост тактовых частот не помог AMD подготовить продукт, способный разделаться с GTX 580. Ускоритель Radeon HD 6970, являющийся старшим представителем в линейке однопроцессорных видеокарт AMD, способен противостоять лишь GTX 570. Однако сильная позиция в верхнем сегменте рынка ни в коем случае не означает для NVIDIA полную победу. Мы с вами помним, что основная масса покупателей выбирает золотую середину или вовсе бюджетные решения, так что у NVIDIA есть над чем работать, впрочем, как и AMD. И такая работа, безусловно, ведётся. Например, ближе к концу прошлого года AMD представила свои ускорители серии Radeon HD 6850/6870, которые, судя по результатам наших тестов, продемонстрировали весьма неплохие показатели производительности в своём классе. Ну а сегодня пришло время делать ответный ход компании NVIDIA, итак, на арене - ускоритель .

Невольно вспоминаются времена видеокарт 2/3, ведь именно тогда в названиях своих продуктов компания NVIDIA впервые начала использовать постфикс Ti, означающий Titanium (Титан). Старый-новый термин не только добавляет благозвучности названию, он должен ассоциироваться у потенциального покупателя с надёжностью и высокой производительностью продукта. Итак, что на сей раз приготовила NVIDIA? Давайте рассмотрим особенности новинки более подробно.

Дизайн системы охлаждения (СО) можно назвать типичным для нового поколения графических ускорителей NVIDIA. Чёрный глянец кожуха СО добавляет внешнему виду ускорителя солидности. Длина эталонного образца составляет чуть менее 23 см, а значит, проблем с размещением ускорителя в компактных корпусах быть не должно.

Для питания требуется подключение двух шестиконтактных разъёмов питания PCI-Express.

На торцевой панели помимо отверстий, через которые горячий воздух выходит за пределы корпуса, располагаются два разъёма Dual Link DVI-I, а также один порт Mini-HDMI.

Демонтаж системы охлаждения не вызывает трудностей. Кулер контактирует с элементами системы питания и видеопамятью через специальные термопрокладки, а тепло графического процессора передается на медное основание СО через тонкий слой термопасты.

Разбираем кулер. Под кожухом скрывается система охлаждения, состоящая из металлической пластины, на которую отводится тепло от видеопамяти и элементов системы питания, и отвечающая за охлаждение GPU конструкция, состоящая из медного основания, припаянного к нескольким радиаторам. Тепло от основания переносят три тепловые трубки диаметром 6 мм, они же равномерно распределяют его по поверхности радиаторов, расположенных по бокам от центрального.

В некоторых случаях, при модернизации видеосистемы пользователи оставляют приобретённые отдельно кулеры, чтобы потом установить их на новую видеокарту. Если вы так и собираетесь сделать, то наверняка информация о расстоянии между монтажными отверстиями вокруг GPU окажется для вас полезной. Для удобства мы пронумеровали отверстия вокруг GPU GF114.

  • Расстояние между центрами отверстий 1 и 3 составляет 6,0 см
  • Расстояние между центрами отверстий 3 и 6 составляет 5,0 см
  • Расстояние между центрами отверстий 6 и 1 составляет 7,9 см

Система питания ускорителя имеет следующую схему:

Четыре фазы выделены для GPU и одна фаза - для памяти, как и на GTX 460. Контроллеры помечены на PCB как U501 для GPU и U5 - для памяти. C большой долей вероятности это ON Semiconductor NCP5388 (или NCP5395) для GPU и Anpec Electronics APW7165 - для памяти.

Чипы памяти произведены компанией Samsung. Маркировка чипов - K4G10325FE-HC04, номинальная частота составляет 5 ГГц (эффективная частота). Несмотря на столь высокую номинальную частоту, память функционирует на более низкой - 4 ГГц.

На этом мы завершаем изучение конструктивных особенностей ускорителя и переходим к практическим испытаниям. Прежде чем перейти к результатам тестов, ознакомьтесь со списком тестовых пакетов, а также с конфигурацией тестового стенда.

Конфигурация тестового стенда
Центральный процессор Intel Core i7 870 @ 4.0 ГГц (182×22)
Система охлаждения GlacialTech F101 + 2 x 120-мм кулера
Материнская плата ASUS Maximus III Extreme
Оперативная память DDR3 Super Talent 2×2 Гбайт @ 1890 МГц @ 9-9-9
Блок питания IKONIK Vulcan 1200 Вт
Жёсткий диск Samsung SpinPoint 750 Гбайт
Корпус Cooler Master Test Bench 1.0
Операционная система Windows 7 Ultimate x64
Версия драйверов для карт AMD Catalyst 10.11/11.1a
Версия драйверов для карт NVIDIA Программное обеспечение NVIDIA версия 260.63 для GTX 460 WHQL
Программное обеспечение NVIDIA версии 260.99 для GTX470 WHQL
Программное обеспечение NVIDIA версии 263.99 для GTX 570 WHQL
Программное обеспечение NVIDIA версии 266.56 для

Тестирование проводилось в следующих приложениях:

3DMark Vantage Пресеты Performance, High, Extreme
3DMark 11 Пресеты Performance, Extreme
Battleforge DX 10 Максимальная детализация, 1920×1200/ 1680×1050 no AA/AF
Максимальная детализация, 1920×1200/ 1680×1050 4xAA/AF
Colin McRae DiRT 2 DX 11
Crysis v 1.2 x64 DX 10
Just Cause 2 DX 10 Очень высокая детализация, 1920×1200/ 1680×1050 no AA/AF
Очень высокая детализация, 1920×1200/ 1680×1050 4xAA/AF.
Alien versus Predator DX 11 Benchmark Очень высокая детализация, 1920×1200/ 1680×1050 no AA/AF
Очень высокая детализация, 1920×1200/ 1680×1050 4xAA/AF
FarCry 2 DirectX 10 benchmark Ультра детализация, 1920×1200/ 1680×1050 no AA/AF
Ультра детализация, 1920×1200/ 1680×1050 4xAA/AF
Final Fantasy XIV Режим High, 1920×1200 no AA/AF
Mafia II Максимальная детализация, 1920×1200/ 1680×1050 no AA/AF, технология NVIDIA PhysX выключена
Максимальная детализация, 1920×1200/ 1680×1050 no 4xAA/16xAF, технология NVIDIA PhysX выключена
Metro 2033 DX11 Benchmark Максимальная детализация, 1920×1200/ 1680×1050 no AA/AF, технология NVIDIA PhysX выключена, DOF и тесселяция включена
Максимальная детализация, 1920×1200/ 1680×1050 no 4xAA/16xAF, технология NVIDIA PhysX выключена, DOF и тесселяция включена
Unigine Heaven 2.0 Максимальная детализация, Тесселяция в режиме Extreme, 1920×1200/1680×1050 no AA/AF
Максимальная детализация, Тесселяция в режиме Extreme, 1920×1200/1680×1050 4xAA/16xAF
Lost Planet 2 Benchmark
HAWX 2 Benchmark DX11, Максимальная детализация, тесселяция включена, 1920×1200/1680×1050 no AA/AF DX11,
Максимальная детализация, тесселяция включена, 1920×1200/1680×1050 4xAA/16xAF

В тестировании принимали участие следующие видеокарты:

  • NVIDIA GTX 460 1024 Мбайт (675/1350/3600);
  • NVIDIA GTX470 1280 Мбайт (607/1215/3348);
  • NVIDIA GTX 560 1024 Мбайт (822/1644/4008);
  • GTX 570 1536 Мбайт (732/1464/3800);
  • AMD Radeon HD 5870 (850/4800);
  • AMD Radeon HD6870 (900/4200);
  • AMD Radeon HD6950 (800/5000).

Для разгона мы использовали утилиту MSI Afterburner 2.0, при помощи которой удалось без вреда для стабильной работы поднять тактовую частоту до значений 875/1750/4800 МГц для графического ядра, шейдерного домена и видеопамяти соответственно. По правде говоря, мы ожидали несколько большего, однако делать окончательные выводы ещё очень рано: во-первых, все экземпляры видеокарт обладают разным частотным “потолком”, а во-вторых, многие производители предложат свои модификации , некоторые из которых будут стабильно работать на более высоких частотах.

Энергопотребление и тепловыделение

Несмотря на существенно возросшие тактовые частоты, а также большее количество функциональных блоков, нагревается немного меньше GPU GTX 460, что не может не радовать. При типичной игровой нагрузке новинка от NVIDIA показывает близкие к Radeon HD6870 результаты. Это стало возможным благодаря не только модернизации графического ядра, но и весьма неплохой системе охлаждения, которая в процессе эксплуатации ускорителя по уровню шума не выделялась на фоне остальных компонентов стенда.

В режиме офисной работы стенд с по показателю энергопотребления оказался на уровне Radeon HD6870, Radeon HD6950 и GTX 460, что вполне ожидаемо. А вот игровая нагрузка демонстрирует заметную разницу между решениями NVIDIA и AMD. Надо сказать, что все «красные» ускорители с точки зрения «аппетита» оказались скромнее в сравнении с представителями NVIDIA. Тем не менее, и тут прогресс в семействе налицо. Обратите внимание: несмотря на более высокий уровень производительности в 3D (чтобы это понять, достаточно просто взглянуть на технические характеристики видеокарт), тестовый стенд с установленной видеокартой потребляет такое же количество энергии, что и аналогичный стенд с GTX 460. Данный факт свидетельствует о более высоком уровне производительности на ватт потребляемой видеокартой энергии.

Ну а теперь давайте посмотрим на что способен ускоритель GTX 560 Ti в 3D-приложениях. Сразу оговоримся, что за несколько дней до выхода материала мы получили новый драйвер Catalyst от AMD под номером 11.1a. Среди улучшений значилось увеличение производительности ускорителей Radeon HD 68xx/69xx в таких приложениях как 3DMark Vantage, Unigine Heaven OpenGL, Alien versus Predator, Crysis Warhead и другие. Мы провели тестирование с новым драйвером, однако в нашем случае изменения были заметны лишь в синтетическом тесте 3DMark Vantage. В то же время игры не реагировали на смену драйвера, разница в результатах редко составляла более 0,5-1,5 fps. Поэтому мы приводим значения, полученные с новой версией драйверов, только в результатах синтетических пакетов компании Futuremark.

Как и следовало ожидать, без особого труда расправился со своим предшественником - GTX 460. Это вполне естественно, учитывая большее количество функциональных блоков и более высокие рабочие частоты. Кроме того, новинка легко обошла и GTX470, который достаточно долго оставался лидером в этом ценовом сегменте. Также ускоритель был быстрее Radeon HD6870 во всех без исключения режимах. А вот Radeon HD6950 оказался не такой уж лёгкой добычей, особенно после оптимизаций, заложенных в новом драйвере AMD. Посмотрим, как обстоят дела в новом 3DMark 11.

В данном тесте новый драйвер несколько ослабил позиции ускорителей AMD, хотя отставание вряд ли можно считать существенным. В целом выступает весьма неплохо, обгоняя GTX470 и оказываясь примерно на равных с Radeon HD6870.

Без сглаживания и анизотропной фильтрации показывает удивительно близкие результаты с ускорителем Radeon HD6870, немного уступая по производительности Radeon HD6950. А вот после активации 4xAA / 16xAF новый ускоритель NVIDIA обошёл и HD6870, и даже HD6950!

В DiRT 2 ускоритель занимает одно из лидирующих мест, опережая всех соперников вне зависимости от режима тестирования.

В Crysis же, наоборот, наблюдается общее отставание продуктов NVIDIA, здесь уже Radeon HD6870 показывает лучшие результаты в сравнении с GTX 560 Ti. При этом новый ускоритель оказался производительнее GTX470, что делает его неплохой заменой, по крайней мере если судить по проверенным приложениям.

И вновь чаша весов склонилась в пользу «зелёных». Ускоритель следует сразу за GTX 570, не пропуская вперёд конкурентов из «красного» лагеря.

GeForce GTX 560 Ti | Введение

Ещё в июле прошлого года редакторы THG предположили, что nVidia выключил один из потоковых процессоров (Streaming Multiprocessor) на GeForce GTX 460 с графическим процессором GF104, чтобы избежать вытеснения видеокарты GeForce GTX 465 с рынка. Разве не интересно было бы увидеть версию этого чипа со всеми восемью включёнными потоковыми процессорами? Мы имели в виду, что GeForce GTX 460 уже заняла достойное место среди видеокарт с 336 ядрами CUDA и 56 текстурными блоками. И, конечно же, полнофункциональная версия этого видеочипа может бросить вызов более дорогим (и менее привлекательным) видеокартам GeForce. Также это может быть угрозой для видеокарт Radeon серии HD 6800, rоторые вышли на три месяца позже.

Логично, что nVidia поступила именно так. У GeForce GTX 465 и без GF104 хватает конкурентов. Впрочем, эти видеокарты уже не производятся. Так же стоит напомнить, что nVidia хочет полностью прекратить выпуск видеокарт, основанных на процессоре GF100.

GeForce GTX 470 - единственная видеокарта, оставшаяся у компании, которая использует оригинальную архитектуру Fermi. Она заполнила пробел в линейке видеокарт nVidia со стоимостью в $259 как раз между GTX 460 за $200 и GTX 570 за $349. Это учитывая стартовую цену в 350 долларов. Удивительно, как здоровая конкуренция положительно сказывается на нас, любителей поиграть, не так ли?

nVidia прекращает выпуск GF100 менее чем через год после первого анонса. На смену ему приходит видеокарта GeForce GTX 560 Ti. Вместо того, чтобы использовать графическое ядро версии GF104, в GTX 560 применён более продвинутый чип с улучшениями на уровне базовых элементов, впервые применённый в GeForce GTX 580.

В результате графический процессор, содержащий чуть менее чем два миллиарда транзисторов (1.95 миллиарда, по данным nVidia) соответствует или даже превосходит производительность GF100 с тремя миллиардами транзисторов, реализованных в видеокарте GeForce GTX 470.

GeForce GTX 560 Ti | Как создать более быстрый игровой графический процессор

Как мы все знаем, GeForce 500-й серии почти не отличается по архитектуре от 400-й серии.

Видеокарты GeForce GTX 580 и GTX 570 построены на GF110 – переработанной GF100 с улучшенной фильтрацией текстур, эффективным Z-отсечением, оптимизацией на уровне транзисторов, которая способствует увеличению показателей при равном энергопотреблении.

Таким же образом видеокарта Geforce GTX 560 Ti основана на процессоре GF114 – переделанной версии GF104. Вспомните, что в GF104 уже включены улучшения фильтрации текстур, которые не попали в GF100. То есть пропускная способность 64-битных текселей FP16 удвоена с двух за такт до четырех за такт в каждом текстурном блоке. У GF104 и GF110 есть эти возможности, у GF100 их нет. Более того nVidia решила не переносить улучшения по Z-отсечению в GF114, а вместо этого оставить растровый движок без изменений.

В конечном счёте, GF114 функционально идентичен GF104. По факту nVidia даже указывает такое же количество транзисторов (1.95 миллиарда) и графический процессор производится по такому же 40 нм технологическому процессу TSMC.

Модифицированный процессор работает на более высоких тактовых частотах с меньшим энергопотреблением, что даёт более высокую производительность, но это всё равно улучшенная версия GF104. Конечно, главное отличие в том, что для создания видеокарты GTX 460 nVidia отключает у GF104 один из потоковых процессоров, а в GeForce GTX 560 Ti использует не "обрезанный" GF114. В сравнении с GTX 460 это означает больше тактов, больше ядер CUDA, и, теоретически, лучшую производительность в геометрии, благодаря восьми полиморфным движкам и восьми дополнительным текстурным блокам. Все эти факторы в совокупности создают видеокарту не только полностью заменяющую GeForce GTX 460, но и достаточно быструю, для того, чтобы затмить GeForce GTX 470.

GeForce GTX 560 Ti | Эти характеристики выглядят знакомыми

Если вы уже знакомы с GF104, то эта глава для вас будет чем-то вроде прошлогоднего учебника по GPU101. GF114 состоит из двух GPC (Graphics Processing Clusters), каждый с четырьмя потоковыми процессорами. Как вы уже знаете, все восемь потоковых процессоров полностью включены в GeForce GTX 560 Ti.


GF100/GF110 SM

GF104/GF114 SM

Ниже мы приведём небольшой отрывок из обзора GeForce GTX 460, немного изменив его:

"В GF114 используется 48 ядер CUDA на SM, вместо 32 ядер на SM, как в GF100. Обеспечение этих более сложных SM информацией требует более высокой пропускной способности инструкций, поэтому мы видим ещё одно улучшение: увеличение блоков диспетчеризации на каждый SM с двух в GF100 до четырех в GF114. Кроме того, каждый SM теперь имеет восемь текстурных блоков (вместо четырех).

Проще говоря – это более "широкий" GPU, чем GF100 и GF110. Результат – улучшенная производительность по сравнению с GF100 в наиболее популярных игровых приложениях.


GF114, реализованный в GeForce GTX 560 Ti

Внутри чип также немного отличается. Полный GF100 предлагает шесть независимых от GPC разделов растровых операций ROP, каждый из которых способен выводить восемь 32-х битных пикселей за такт (всего 48). Все шесть разделов связаны с 64-битной шиной памяти, что в сумме даёт шину в 384 бита. GF114 получает максимум из четырёх разделов, что даёт до 32 пикселей за такт и 256-битную шину".

GeForce GTX 560 Ti | Старые суффиксы, новые карты

Поскольку nVidia полностью включила GPU GF114, спецификации GeForce GTX 560 Ti полностью соответствуют графическому процессору. Благодаря 384 ядрам CUDA, получился GPU с большой производительностью шейдеров. Появляется 64 текстурных блока, благодаря 8 более широким SM. Их столько же, сколько и в GF110, однако, для поддержания такой же функциональности на флагманском GeForce GTX 580 требуется 16 SM. nVidia в состоянии обеспечить частоту GPU в 822 МГц, в то время как ядра CUDA работают на частоте 1644 МГц (соотношение 1:2 очевидно). Также как и GeForce GTX 460 1 Гбайт, видеокарта GeForce GTX 560 обладает четырьмя включенными разделами ROP, выдающими до 32 пикселей за такт. Четыре 64-битные шины составляют в сумме 256 бит. На видеокарте установлена видеопамять GDDR 5 объёмом 1 Гбайт с частотой 1002 МГц, что дает пропускную способность в 128.3 Гбайт/с.

Технические характеристики видеокарт GeForce GTX
GeForce GTX 560 Ti GeForce GTX 570 GeForce GTX 460 1 Гбайт GeForce GTX 470
Graphics Processing Clusters (GPCs) 2 4 2 4
Streaming Multiprocessors (SMs) 8 15 7 14
Ядра CUDA 384 480 336 448
Количество текстурных модулей 64 60 56 56
ROP блоки 32 40 32 40
Частота графического процессора, МГц 822 732 675 607
Частота шейдерных блоков, МГц 1644 1464 1350 1215
Частота памяти (скорость передачи данных) 1002 МГц (4008 MT/s) 950 МГц (3800 MT/s) 900 МГц (3600 MT/s) 837 МГц (3348 MT/s)
Объём видеопамяти GDDR 5, Гбайт 1 1.25 1 1.25
Шина видеопамяти, бит 256 320 256 320
Пропускная способность памяти, Гбайт/с 128.3 152 115.2 133.9
Скорость наложения текстур, млрд./сек. 52.6 43.9 37.8 34.0
Технологический процесс (TSMC), нм 40 40 40 40
Форм-фактор Двойной слот Двойной слот Двойной слот Двойной слот
Внешние интерфейсы 2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
2 x DL-DVI,
1 x mini-HDMI
Потребляемая мощность, Вт 170 219 160 215

Внешне GeForce GTX 560 Ti выглядит также, как и GeForce GTX 460. Обе карты используют осевые вентиляторы, направляющие поток воздуха на массивные алюминиевые радиаторы с медным основанием. Обе карты двухслотовые с одинаковым количеством выходов, включающих два двухканальных DVI-разъёма и один мини-HDMI порт. Кроме того, обе карты требуют внешнее питание и оснащены парой вспомогательных шестиканальных входов.


Однако есть несколько различий. Длина GeForce GTX 560 Ti – 23см, а GTX 460 – 21см. Под пластмассовым кожухом GTX 560 можно увидеть на одну тепловую трубку больше, что позволить рассеять большее количество тепла. Есть также металлическая пластина, закрывающая чипы памяти и схему питания видеокарты. Раньше эти компоненты просто оставались открытыми.

Конечно, сейчас мы говорим об эталонном дизайне. В лаборатории уже появилось несколько видеокарт GTX 560 от сторонних производителей, не соответствующих референсной версии от nVidia. Например, видеокарта Gigabyte имеет длину 24 см, два вентилятора, 6+1 фаз стабилизатора питания (против 3+1 в референсной версии) и совершенно другую печатную плату.

nVidia оснащает свою эталонную модель той же схемой контроля питания, что и на видеокарте GeForce GTX 580. Эта схема предотвращает перегрузки схемы регулирования напряжения. Компания говорит, что включать их в GeForce GTX 560 Ti или нет – это дело производителей видеокарты.

GeForce GTX 560 Ti | Ах да, об этом Ti…

В зависимости от вашего возраста, суффикс Ti от NVidia GeForce GTX 560 Ti может иметь, а может и не иметь смысл. История заключается в том, что ещё в 2002 году nVidia ограничила "ориентированные на производительность" видеокарты суффиксом Ti, а "бюджетные" видеокарты суффиксом MX. В линейке GeForce Ti было несколько различных моделей, большинство было основано на GPU NV25, но мы отчетливо помним, что GeForce 4 Ti 4200 являлся лидером. Если у вас всё в порядке с поиском в интернете, то вы даже сможете найти несколько наших обзоров этой карты 2002 года.

Как бы там ни было, nVidia возвращает суффикс Ti. Когда компания спросила нас, что мы думаем о названии этой карты, мы сначала немного опешили. "Мило, парни". Но если посмотреть внимательнее, то название имеет смысл. GF114 – это микросхема, которая сможет управлять любой видеокартой. И вместо того, чтобы начинать морочить потребителю голову цифровыми индексами (GTX 555, GTX 550, и так далее) мы предполагаем, что в скором времени сможем увидеть GeForce GTX SE, если nVidia представит менее производительную копию GF114.

Дифференциация по суффиксу не настолько выразительна, как уже принятая система исчисления. Если вспомнить времена GeForce 4, тогда менее дорогие видеокарты серии MX были сняты с производства из-за того, что плелись за самыми медленными видеокартами GeForce 3 по производительности. В наши дни производительность ещё не всё, есть много базовых функций, которые стоит принять во внимание. Но даже сейчас, есть возможность запутать неподкованного человека, который уделяет больше внимания играм, чем "железу", которое он покупает.

К счастью, мы не думаем, что nVidia пойдёт на эти хитрости, но GeForce GTX 460 и GF104 ещё свежи в памяти. Возможно, также как и в июле, видеокарты партнеров начнут просачиваться на рынок с всё более и более агрессивными частотами (и более высокими ценами). К тому времени, когда AMD запустил свой GPU на основе Barts, NVidia пришлось нелегко, уговаривая кого-нибудь протестировать разогнанные видеокарты от партнёров, чтобы сравнивать их с эталонными видеокартами от AMD. Возможно, более тщательное сегментирование линейки GeForce GTX 560 не вызовет повторение этой ситуации, которая внутри nVidia вызвала много негатива.

GeForce GTX 560 Ti | Производительность тесселяции



Учитывая особое внимание, которое AMD первоначально уделяло тесселяции в DirectX 11, а также внимание, которое nVidia уделяет тесселяции в DirectX 11 сейчас, нам захотелось пропустить видеокарты обоих производителей через самый тяжёлый тест, чтобы оценить влияние архитектуры на производительность в геометрии. Этим тестом должен был стать Unigine Heaven Demo, но теперь, когда стал доступен игровой тест HAWX 2, мы решили переключиться с искусственного теста на него.

Тестируя видеокарты nVidia было интересно наблюдать, как менялась частота кадров в зависимости от количества полиморфных движков в образцах. Мы обнаружили, что возможности архитектуры Fermi не обязательно масштабируется линейно, как могла бы предположить nVidia. Это проявляется в том, что GTX 570 с процессором GF110 использует пятнадцать полиморфных движков, GTX 560 – восемь движков, а разница при включении/выключении тесселяции в HAWX 2 всего один процент. Очевидно, что геометрия - не критический параметр.

Ситуация с AMD не намного яснее. Cayman получил второй блок тесселяции, в то время как Barts обходится только одним, но всё равно масштабируется лучше. Единственное, что можно утверждать, это то, что архитектура Cypress предлагает больше при включённой тесселяции. Отличный вариант на сегодня – это Radeon HD 5870, особенно если его удастся найти с большой скидкой. Но если всё больше разработчиков будут следовать примеру Ubisoft с игрой HAWX 2, широко использующей геометрию, то понадобиться больше производительности, чем на оптимизированных под геометрическую нагрузку видеокартах Radeon HD 6000 серии.

GeForce GTX 560 Ti | Аппаратное обеспечение и тесты

Конфигурация тестового стенда
Процессор Intel Core i7-2600K (Sandy Bridge) 3.4 ГГц, разогнанный до 4 ГГц (40х100 МГц), LGA 1155, 8 Мбайт кэш L3, Hyper-Threading enabled, Power-savings enabled
Материнская плата ASUS Maximus IV Extreme (LGA 1155) Intel P67, BIOS 0504
Оперативная память 8 Гбайт (4 x 2 Гбайт) Kingston DDR3-1333, KHX2000C8D3T1K3/6GX @ 8-8-8-24, 1.65 В
Жёсткий диск 160 Гбайт SATA 3 Гбит/с, Intel SSDSA2M160G2GC
Видеокарта GeForce GTX 560 Ti 1 Гбайт
GeForce GTX 570 1.25 Гбайт
GeForce GTX 460 1 Гбайт
GeForce GTX 470 1.25 Гбайт
Radeon HD 6950 2 Гбайт
Radeon HD 6870 1 Гбайт
Radeon HD 5870 1 Гбайт
Radeon HD 4870 X2 2 Гбайт
Блок питания Cooler Master UCP-1000 W

Программное обеспечение и драйверы
Операционная система Windows 7 Ultimate 64-бит
DirectX DirectX 11
Драйвер видеокарты AMD 8.82.2
GeForce Release 266.56 (для GTX 560 Ti)
GeForce Release 263.09 (для GTX 570)
GeForce Release 260.99 (для GTX 460 и 470)

Игры
Lost Planet 2 Highest Quality Settings, No AA / No AF, 4x MSAA / 16x AF, vsync off, 1680x1050 / 1900x1080 / 2560x1600, DirectX 11, Steam version
Just Cause 2 Highest Quality Settings, No AA / 2x AF, 8x AA / 16x AF, vsync off, 1680x1050 / 1920x1080 / 2560x1600, Bokeh filter and GPU water disabled (для видеокарт nVidia), Concrete Jungle Benchmark
Metro 2033 High Quality Settings, AAA / 4x AF, 4x MSAA / 16x AF, 1680x1050 / 1920x1080 / 2560x1600, Built-in Benchmark, Steam version
F1 2010 Ultra High Settings, No AA / No AF, 8x AA / No AF, 1680x1050 / 1920x1080 / 2560x1600, Steam version, Custom benchmark script, DX11 Rendering
Aliens Vs. Predator Benchmark High Quality Settings, SSAO, No AA / 16xAF, Ultra Quality Settings, 4x MSAA / No AF, vsync off, 1680x1050 / 1920x1080 / 2560x1600
Battlefield: Bad Company 2 Custom (Highest) Quality Settings, No AA / No AF, 8x MSAA / 16xAF, 1680x1050 / 1920x1080 / 2560x1600, opening cinematic, 145 second sequence, FRAPS
3DMark11 Performance Default
HAWX 2 Highest Quality Settings, 8x AA, 1920x1200, Retail Version, Built-in Benchmark, Tessellation on/off
World of Warcraft: Cataclysm Ultra Quality Settings, No AA / 16x AF, 8x AA / 16x AF, From Crushblow to The Krazzworks, 1680x1050 / 1920x1080 / 2560x1600, FRAPS, DirectX 9 Rendering

GeForce GTX 560 Ti | Результаты тестирования

Не так давно мы обсуждали тест 3DMark11 с nVidia по телефону. Кажется, компании не нравится этот тест, потому что он не отражает будущее развитие игр, а именно, более широкое использование геометрии для улучшения реализма.

Несомненно, в 3DMark11 акцент делается на освещение, в частности на одном из шейдеров DirectX 10. Однако у нас состоялся откровенный разговор с Futuremark, которые сказали, что они спроектировали свой тест с правильной оптимизаций тесселяции. Излишняя геометрия сцены сильно сказывается на качестве визуального отображения, но потенциально может значительно снизить производительность видеокарт начального уровня и средних видеокарт. В то время, как первый графический тест в 3DMark вообще не затрагивает геометрию, то второй, третий и четвертый тесты включают то, что мы считаем разумным количеством тесселяции – то есть, нет ни одной сцены с настолько большими треугольниками, где мы могли бы подумать: "О! Здесь можно было бы добавить немого геометрии".

Конечно, nVidia утверждает, что подобный синтетический тест, ориентируется на будущие игры, а не на те, которые вышли сегодня. Однако, Futuremark утверждает, что разработчики игр не будут увеличивать сложность сцен ради их сложности.



Согласно Futuremark, 3DMark11 содержит достаточно геометрии для увеличения реализма

В конце концов, более важно, насколько 3DMark11 правильно отражает большинство реальных игр. Когда вы просмотрите на результаты тестов, основанных на играх с DirectX 11 (все, что мы тестировали сегодня, за исключением World of Warcraft, основано на DirectX11), то заметите, что на самом деле 3DMark11, по какой-то причине, не всегда хорошо справляется. Наиболее заметна разница между GeForce GTX 560 Ti и Radeon HD 6870. В этом тесте видеокарта от AMD обгоняет nVidia, но во всех случае с реальными играми (за исключением F1 2010 – об этом чуть позже) nVidia вырывается вперед. GTX 470 также даёт непропорционально низкий результат, по сравнению с Radeon HD 6870. Интересно заметить, что даже в собственной линейке AMD Radeon HD 5870 побеждает Radeon HD 6950 во многих тестах, хотя 3DMark11 наоборот показывает существенный отрыв.

Возможно, 3DMark11 больше представляет будущее, чем думает nVidia, если двойной тесселяционный движок помог HD 6950 так далеко уйти вперёд от HD 5870. Или, может быть, уверенность AMD в шейдерах освещения DirectX 10 только подчеркивает высокую производительность DX10, в то время как nVidia, возможно, предлагает более дальновидную архитектуру, ориентированную на будущее. В любом случае не основывайте своё решение о покупке только на результатах синтетического теста. Люди в Futurmark приложили много усилий, чтобы исключить влияние политики, которую проводят AMD/nVidia, участвуя в разработках игр, но это приводит, в свою очередь, к разным результатам в синтетических тестах и в реальных играх.




Metro 2033 (DX11)



В разрешениях 1680x1050 и 1920x1080 выделяются GeForce GTX 570 и Radeon HD 6950 2 Гбайт, особенно с включенным сглаживанием. На менее производительных видеокартах вряд ли необходимо включать сглаживание, так как Metro 2033 одна из наиболее требовательных игр, которые мы использовали в нашем тестировании.

Как это не удивительно, Radeon HD 5870 уверенно занимает третье место во всех трёх тестах, доказав, что предыдущее поколение карт AMD по-прежнему конкурентоспособно, более чем через год после выхода.

GeForce GTX 560 Ti от nVidia находится в середине, побив Radeon HD 6870 без сглаживания, потеряв немного в двух разрешениях со сглаживанием, а затем обходит видеокарту AMD при разрешении 2560x1600 (хотя и не на играбельной частоте кадров). Наверное, ещё более примечательным является тот факт, что 560 Ti обошёл карту GeForce GTX 470, которая основана на более сложном GPU, рассеивает больше тепла и потребляет больше энергии.

LostPlanet 2 (DX11)



На самом деле не удивительно, что карты GeForce доминируют в Lost Planet 2, ведь она с логотипом TWIMTBP (The WayIt’s Meant To Be Played). Удивительно то, что Radeon HD 6950 занял второе место при разрешении 2560x1600.

GeForce GTX 560 Ti ставят сегодня в один ряд с GeForce GTX 470, показывая нам, что ядра CUDA, сами по себе, не приводят к увеличению производительности - текстурная пропускная способность также важна, и архитектура GF114 лучше подходит для массовых игр, чем некоторые более мощные графические процессоры от NVidia.

Интересно, что AMD Radeon HD 5870 плетётся на последнем месте, однако при разрешении 2560x1600 он поднялся на один пункт.

Aliens Vs. Predator (DX11)



Radeon HD 5870 возвращает себе лидерство среди видеокарт AMD среднего уровня, побил даже Radeon HD 6950 2 Гбайт во всех трёх разрешениях.

Тем временем, nVidia GeForce GTX 560 Ti попадает в середину, обогнав Radeon HD 6870 и GeForce GTX 470. На самом деле довольно трудно получить хорошую частоту кадров с включенным 4xAA, поэтому мы рекомендуем обратить больше внимания на тесты с выключенным сглаживанием.

Battlefield: Bad Company 2 (DX11)



Многие игры, первыми начавшие поддерживать DirectX 11 были помечены как "проверенные DX11 игры". Они, конечно, поддерживали некоторые функции DirectX 11, но этого недостаточно, чтобы показать все способности API. Battlefield: Bad Company 2 была одной из первых игр DX11-класса и она тоже получила отметку "проверенной" игры, также как AvP и DIRT2.

GeForce GTX 560 Ti от NVidia довольно хорошо показала себя в разрешении 1680x1050, немного опередив GTX 470 и даже более дорогой Radeon HD 6950 на 2 Гбайт. Далее, в разрешении 1920x1080 GTX 560 Ti проиграла HD 6950, а при 2560x1600 оказалась даже ниже, чем Radeon HD 6870. В этом разрешении мы наблюдаем три видеокарты, такие как HD 6870, GTX 560 и GTX 470, у которых практически одинаковое количество кадров в секунду.

Настоящая новость состоит в том, что Radeon HD 5870 от AMD обогнал почти все карты (кроме GeForce GTX 570) на всех трёх разрешениях.

GeForce GTX 560 Ti | Результаты тестирования. Продолжение

F1 2010 (DX11)



Мы слышали, что F1 2010 тоже отмечен как "проверенная" игра DX11-класса, но фактически она уступает DiRT 2 из-за удаления поддержки тесселяции и ограничивая поддержку API только шейдерной маской и эффектом размытия. Тем не менее, игра выглядит довольно хорошо.

На разрешениях 1680x1050 и 1920x1080 GeForce GTX 570 занимает первое место, однако Radeon HD серии 5000 и 6000 идут следом. На разрешении 2560x1600 Radeon HD 5870 от AMD даже занял первое место.

Между тем, GeForce GTX 560 Ti немного отстаёт. Он смог поравняться с GeForce GTX 470, которую должен заменить, но всё же проигрывает более дешёвым картам от AMD.

Just Cause 2



Хотя Just Cause 2 тоже имеет логотип TWIMTBP, Radeon HD 5870 наглядно показывает нам, что видеокартам от nVidia этот логотип не сильно помогает, но похоже это не относится к картам серии HD 6000.

Radeon HD 6950 2 Гбайт смог обойти GeForce GTX 560 Ti только при разрешении 2560x1600. Если бы Radeon HD 5870 не показал лучшие цифры за меньшие деньги, можно было бы подозревать, что это из-за спонсорского логотипа nVidia.

World Of Warcraft: Cataclysm



С недавнего времени, мы стали получать множество просьб о включении World of Warcraft в наши постоянные обзоры видеокарт, что мы и сделали. Кроме того мы хотели провести дополнительные тесты по масштабированию производительности конфигураций с несколькими видеокартами, так как в игре изначально отсутствовала поддержка таких конфигураций. Более подробно об этом расскажем ниже.

Поскольку уровень производительности одиночных видеокарт продолжает расти, результаты здесь довольно близки к тем, что мы видели перед этой частью. Разница в том, что мы запускаем игру в том виде, как она поставляется - с режимом DirectX 9 (а не с экспериментальным кодом для запуска DX11, который улучшает производительность). Как и раньше, видеокарты от nVidia показали себя очень хорошо, GeForce GTX 570 и 560 Ti заняли два первых места во всех разрешениях.

Radeon HD 6950 борется с GeForce GTX 470 за третье место. Остальные видеокарты расположились ниже. Стоит отметить, что Radeon HD 5870 занимает четвертое место при разрешении 2560x1600 и идёт сразу после Radeon HD 6950. Опять же, архитектура Cypress демонстрирует своё превосходство.

Мы забежали немного вперед и добавили результаты Radeon HD 4870 X2 для тех, кто использует старые видеокарты класса DirectX 10. Как видно, старый флагман всё ещё способен потягаться с современными моделями, даже на высоких настройках при разрешении 2560x1600. Однако, у HD4870 X2 есть небольшая проблема с высоким качеством при использовании последней бета-версией драйвера от AMD.



это должна была быть вода…

Масштабирование в SLI и CrossFire

В Lost Planet 2 GeForce GTX 560 Ti в одиночном режиме доминирует над Radeon HD 5870 и 6870, поэтому тот факт, что пара этих карт делает то же самое в SLI, на самом деле не удивляет.

Возможно, более интересным будет то, что Radeon HD 5870 и 6870 показали почти одинаковую производительность. Мы видели, как Radeon HD 6870 выдавал больше кадров на разрешении 1680x1050 и 1920x1080, пропустив HD 5870 вперед только при 2560x1600. Однако в CrossFire, два HD 6870 показали небольшой отрыв в разрешении 2560x1600, тем самым демонстрируя лучшее масштабирование карт на основе Barts.

С Aliens Vs. Predator абсолютно другая история. В режиме одиночной карты Radeon HD 5870 занял второе место в разрешении 2560x1600, и он использует это преимущество, чтобы занять первое место в тесте двух видеокарт. GeForce GTX 560 Ti и Radeon HD 6870 прежде показывавшие почти одинаковые результаты и сейчас оказались очень близки в SLI и CrossFire.

В F1, в сдвоенном режиме, GeForce GTX 560 Ti, как и в одиночном, показал себя плохо, и две видеокарты от AMD опять вырвались вперед. Более дешёвый Radeon HD 6870 даже показал более высокую частоту кадров с включенным 8x MSAA, чем GTX 560 Ti с выключенным.

Лучшее масштабирование Radeon HD 6870 позволяет ему выигрывать у двух GeForce GTX 560 Ti в режиме SLI, несмотря на то, что видеокарта от nVidia была быстрее при 2560x1600 в режиме одиночной карты. Более примечательно то, что Radeon HD 5870 в CrossFire превосходит другие пары видеокарт и финиширует на первом месте.

Мы буквально бились головой о стену в течение нескольких дней, пытаясь выяснить проблему запуска World of Warcraft: Cataclysm от Blizzard на SLI/CrossFire. По словам AMD, она выпустила обновление профиля CrossFire вскоре после того, как мы закончили тестирование. У nVidia всё ещё есть отчеты об ошибках, указывающих, что масштабирование не такое целостное, каким оно должно быть. Однако, после ряда мелких исправлений и обновлений драйверов устройств, мы рады сообщить, что теперь можно увидеть масштабирование в том же Crushblow при пролёте The Krazzworks. nVidia утверждает, что не видит идеального масштабирования, но производительности двух GeForce GTX 560 Тi (с 8-кратным сглаживанием) достаточно, чтобы соответствовать двум Radeon HD 5870 (без сглаживания). Radeon HD 6870 отстаёт так же, как и в результатах тестов одиночных видеокарт.

GeForce GTX 560 Ti | Разгон


Gigabyte прислал нам свою видеокарту GV-N560SO-1GI, специально разогнанную до 1 ГГц (по сравнению со штатной частотой 822 МГц) для графического процессора и до 1145 МГц (по сравнению с частотой 1 ГГц) для видеопамяти. Представители Gigabyte говорят, что эта карта будет продаваться по цене $269 – это на $20 больше, по сравнению с ранее заявленной ценой в $249.



Как вы можете видеть, GeForce GTX 560 Ti, работающая на частоте 1 ГГц существенно быстрее, чем референсные видеокарты от nVidia, присланные ранее. Это не так быстро, как GeForce GTX 570, как обещает Gigabyte, но факт в том, что результаты довольно похожи, а цена на $80 меньше. Теперь, Gigabyte использует свой собственный процесс отбора GF114, способных устойчиво работать на частоте 1 ГГц. Не каждый графический процессор способен работать на таком уровне. Однако справедливо предположить, что большинство GeForce GTX 560 будут уверенно работать со среднюю скорость. nVidia подтверждает, что частотf около 900 МГц довольно типична для видеочипов, протестированных ранее.

GeForce GTX 560 Ti | Шум и энергопотребление

Мощность

Изменив недавно способ измерения мощности, мы хотели убедиться, что получаем правильные результаты. Запустив несколько игр на DirectX 9, 10 и 11, мы не смогли получить уровень энергопотребления выше, чем в игре Metro 2033 (хотя, по-видимому, старые игры могут выдать и более высокое энергопотребление). Однако мы заметили, что низкие разрешения более требовательны к питанию, чем высокие. Это имеет некоторый смысл - если вы не создаете искусственно высокие нагрузки на GPU, центральный процессор вынужден работать более интенсивно. Поэтому наш тест энергопотребления проходит при разрешении 1680x1050 с использованием AAA и 4x AF.

Очевидно, что Radeon HD 4870 X2 был в своё время настоящим "зверем". Видеокарты с двумя GPU и сейчас могут предоставить приличную производительность в современных играх, но они буквально высасывают энергию во время работы. Абсолютная скорость может быть и не такой высокой, но соотношение производительности на ватт оставляет желать лучшего.

Следующим по потреблению энергии идёт GeForce GTX 570, а сразу же за ним GeForce GTX 470. Отличие заключается в том, что GTX 570 намного более производительная, а разница в 4 Вт всё-таки небольшая по сравнению со скоростью, которую вы получите.

Видеокарта Средняя мощность системы, Вт
GeForce GTX 560 Ti 263.3
GeForce GTX 570 292.6
GeForce GTX 460 241.0
GeForce GTX 470 288.9
Radeon HD 6950 253.1
Radeon HD 6870 234.1
Radeon HD 5870 249.6
Radeon HD 4870 X2 402.0

GeForce GTX 560 Ti потребляет меньше этих двух видеокарт, в среднем на 25 Вт, но всё же больше, чем Radeon HD 6950 2 Гбайт от AMD, который, быстрее при высоких разрешениях. Общая разница в 10 Вт по энергопотреблению всей системы делает соотношение производительность на ватт в пользу AMD.

Radeon HD 5870, GeForce GTX 460 и Radeon HD 6870 оказались близко друг к другу и замыкают список. Однако, как вы могли видеть из анализа тестирования, Radeon HD 5870, безусловно, фаворит по производительность, и это более чем через год после появления.

Шум

Мы не смогли включить Radeon HD 4870 X2 в наши тесты DirectX 11, потому что, он поддерживает только DirectX 10. Но мы смогли протестировать его на шум, энергопотребление и производительность в World Of Warcraft. Эта карта служит хорошей отправной точкой в нашем акустическом тесте. Под нагрузкой, карта довольно сильно шумит.

Однако, на холостом ходу Radeon HD 4870 X2 шумит не больше других видеокарт, рассмотренных здесь. Наиболее шумные карты, как правило, являются флагманами, а не картами среднего класса и цены. Надо сказать, что nVidia действительно решает проблему шума видеокарт на базе GF100. GeForce GTX 560 Ti является самой тихой картой из всех протестированных. После 10-го запуска Metro 2033 она производит столько шума, сколько производит GeForce GTX 460 на холостом ходу.

GeForce GTX 560 Ti | Заключение

Мы не были впечатлены высочайшей графикой до запуска Radeon HD 6990 от AMD на базе Antilles. Radeon HD 5970 стоит около $ 600 и более. Но эта видеокарта, выпущена более года назад. GeForce GTX 580 стоит $500. Если вы покупаете несколько флагманских карт для того, чтобы соединить их в SLI или Crossfire, это обойдётся вам в непомерную сумму около $1000 и более. Сейчас появились варианты в среднем классе.

GeForce GTX 460, Radeon HD 6870, GeForce GTX 570, Radeon HD 6950 – любые из этих видеокарт в SLI или Crossfire смогут вас порадовать.

Теперь появляется GeForce GTX 560 Ti, занимающий место как раз в центре этой четверки видеокарт. С точки зрения производительности, эта видеокарта практически в точности заменяет GeForce GTX 470. С точки зрения цены, она сохранит вам $10. С точки зрения шума, 560 Ti определённо является победителем, хотя и GTX 470 тоже несильно шумит, как например GeForce GTX 480. GTX 560 Ti также выигрывает по энергопотреблению, требуя в среднем на 25 Вт меньше, чем GTX 470.

Все эти вещи, взятые по отдельности, являются дополнительными усовершенствованиями, которые nVidia всё равно должна была сделать. Благодаря мощному и горячему графическому процессору GF100, GeForce GTX 470 стоит в продуктовой линейке компании наряду с более изящными картами, такими как GTX 570 и 460. Таким образом, GeForce GTX 560 Ti не впечатляет даже при всех этих маленьких дополнениях, собранных вместе. Но в этой видеокарте нет ничего плохого, это просто улучшенная версия GTX 470, но на $10 дешевле.

Мы без энтузиазма смотрим на видеокарты партнёров nVidia, построенных на GF114. Видеокарта GV-N560SO-1GI от Gigabyte не побила GeForce GTX 570 ни в одном из наших тестов, но она была очень близко в некоторых из них. Gigabyte утверждает, что видеокарта будет продаваться по цене $269. Это довольно низкая цена для карты с тактовой частотой работы графического процессора в 1 ГГц. Однако сможет ли компания поддерживать эту цену, когда GeForce GTX 570 продаётся за $349?

А как же конкуренты? Хотя GeForce GTX 560 Ti почти во всём быстрее, чем Radeon HD 6870 и всего на $20-$40 дороже было бы несправедливо не отметить, что некоторые HD 6870 продаются за менее чем $200 с учётом скидок. Даже сейчас на конфигурацию Crossfire можно потратить на $100 меньше, чем на SLI с GeForce 560 Ti. Radeon HD 5870 также выглядит довольно хорошо, но только если вы сможете найти его дешевле, чем GeForce.

Несомненно, сейчас лучшее время для обновления устаревшей на одно-два поколения видеокарты. Если вы уже приобрели приличную карту в прошлом году, то GeForce 560 Ti вряд ли даёт повод потратить лишние $250. 560 Ti немного быстрее, немного эффективнее, немного тише и немного дешевле, чем GeForce GTX 470, с которой можно попрощаться.

Постскриптум: AMD появляется с двадцатью Radeon HD 6950 1 Гбайт

Мы любим хорошую конкуренцию, но плохой маркетинг может всё испортить.

AMD обратилась к нам с заявлением, что будет поставлять версию Radeon HD 6950 на 1 Гбайт в середине февраля по цене между $269 и $279. "Ну и хорошо", подумали мы тогда. "Беспокоиться будет тогда, когда она выйдет... через три недели. До тех пор, это всего лишь пустые слова на бумаге".

Через некоторое время видеокарты появились и, конечно, мы пропустили их через наш полный набор тестов.

Почти в каждом случае, меньший буфер кадров (и более жёсткая синхронизация памяти) выдаёт на один или два кадра в секунду больше, чем в модели на 2 Гбайт. Это недостойно отдельной диаграммы. В игре Metro 2033 с включенным 4х MSAA и 16x AF, видеокарте на 1 Гбайт не хватило объёма буфера, чтобы поддерживать производительность и FPS упал до 10 кадров в секунду против 30 на 2 Гбайт версии.

Если честно, то возможно AMD должны была представить Radeon HD 6950 первой, а не видеокарту на 2 Гбайт за $300. Однако они не делают этого, возможно, чтобы избежать конкуренции с Radeon HD 6870 по цене $240-$260. Очевидно, что AMD выпустил их вместе до старта продаж видеокарты от nVidia, а опцию как бы придержали в резерве, пока не увидели, что GTX 560 Ti может. Потеря продаж HD 6870 в пользу более дешёвого Radeon HD 6950 звучит лучше для AMD, чем потеря продаж в пользу nVidia.

Теперь, перед лицом GeForce GTX 560 Ti, AMD говорит, что Radeon HD 6950 на 1 Гбайт будет оценен в $259, а Radeon HD 6870 понизится до $219. Останутся ли эти цены или нет, ещё предстоит выяснить. В любом случае, наше заключение относительно GTX 560 Ti не меняется. Он по-прежнему не даёт нам повод к апгрейду. Если сравнивать видеокарты по производительности, то решения от AMD выглядят лучше.

Грязные сплетни создают…

История бы закончилась, если бы Radeon HD 6950 1 Гбайт не появился. Накануне запуска nVidia, один из партнёров говорил нам о том, что AMD выставила на продажу HD 6950 1Гбайт на складе в Newegg за $259. На момент написания статьи в доступности было 20 видеокарт. Мы разговаривали с Newegg и они подтвердили это. Когда вы это прочтёте, их уже не будет в продаже.

Очевидно, что 20 человек будут очень рады получить видеокарту, которая быстрее, чем GeForce GTX 560 Ti за точно такую же цену. Всем остальным придётся подождать. В любом случае, это один из самых слабых маркетинговых ходов, который мы видели. Видеокарта от AMD достаточно сильна, чтобы выстоять самостоятельно, даже при изначально-прогнозируемой цене $269 - $279.

Маловероятно, что вы купите HD 6950 1 Гбайт, если играете на трёх мониторной конфигурации Eyefinity в CrossFire. Для этого вам понадобится видеокарта с памятью в 2 Гбайт, чтобы поддерживать разрешение 5760x1080 с активным AA и AF. Однако Radeon HD 6950 1 Гбайт более привлекателен на разрешении 1920x1080 с максимальной детализацией или на 2560x1600, но с чуть меньшей детализацией.

В сущности, благодаря памяти, Radeon HD 6950 создает достойную конкуренцию GeForce GTX 560 Ti от nVidia.



Поделиться