среда, 25 мая 2011 г.

Intel HD Graphics vs. nVidia GT520M


Меня всегда одолевали предчувствия, что в этом мире что-то не так, и все кругом пытаются меня обмануть. Эдакая разновидность паранойи. И вот недавно я осознал две вещи: с миром все в порядке, и таки да, все пытаются меня обмануть.

На самом деле произошло следующее. В силу своей работы, которая подразумевает обработку больших массивов данных в MS Excel, мне стал необходим более «шустрый» ноутбук, чем тот, которым я располагал. Я пришел к выводу, что для «офисной работы», вопреки расхожему мнению что угодно мне не подойдет. Требования к нему были самые простые – очень быстрый процессор, за разумные деньги.

  


Выбор ноутбука совпал с выходом новых процессоров Intel, и так как по производительности равных им сейчас на рынке нет, я остановился на Core i5 или Core i7. Но при выборе собственно ноутбука, я столкнулся с неожиданной проблемой: все ноутбуки на этих процессорах были «укомплектованы» кучей мне не нужных опций. Колонки с сабвуфером, HD-веб-камера… и самое страшное: мощная видеокарта. Или производители поголовно считают, что без игровой видеокарты ноутбук с мощным процессором не имеет права на существования, или продавцы такое привозят – без разницы. Найти подходящее мне устройство оказалось невозможным.

Тут я хотел бы сделать небольшое отступление, и рассказать о причине моего предвзятого отношения к видеокартам, которые устанавливают в ноутбуки, или, иначе говоря, мобильным видеоадаптерам.

В моем первом лэптопе, купленном четыре года назад, как раз стояла такая видеокарта. В то время мне казалось, что это жизненно необходимый компонент. В результате за четыре года эксплуатации (правда, уже не мной, а моей супругой) ничего «серьезнее» пасьянса на нем не запускалось. А вот от батареи он работает полтора часа в лучшем случае. Во многом из-за этой видеокарты.

Казалось бы, если ноутбук постоянно находится дома – то зачем ему длительное время автономной работы? Есть важная причина – весьма удобно взять с собой ноутбук, к примеру, на кухню и смотреть кино, во время ужина, не заморачиваясь при этом поиском розетки, и прыгая через блок питания.

Но даже не это основная причина. Мобильная видеокарта – это всегда компромисс. Если Вам кто-то скажет, что на той или иной мобильной видеокарте можно классно играть в самые современные игры – можете смело плюнуть ему в лицо. Никто и никогда Вам не сможет объяснить, как такое возможно. Профессиональные игровые видеокарты – по размерам в половину стандартного ноутбука, где-то такие же по весу, а энергии потребляют, как все пять. И то, далеко не все современные игры на них идут с максимальными настройками качества изображения. Тогда видеокарт ставят несколько.



В любом случае, это был мой первый опыт работы с подобными устройствами, поэтому я себя сильно не виню. Но урок я извлек, и все последующие лэптопы уже были оснащены встроенной видеокартой.

Представьте мою радость, когда я обнаружил в продаже Asus K53S, как раз на базе Core i7-2630QM, без всевозможных излишеств, но с одним маленьким недостатком. В нем тоже была установлена видеокарта: nVidia GeForce GT520M. Самое глупое в этой ситуации заключается в том, что по предварительным оценкам – видеокарта Intel HD Graphics 3000, которая уже есть в процессоре и видеокарта nVidia – обладают очень схожей производительностью. Иными словами я заплачу 2 раза за видеокарту.

Что же. После долгих раздумий, взвесив все «за» и «против» я решил его приобрести.

Вся эта история натолкнула меня на мысль, оценить в реальных домашних условиях на одном и том же ноутбуке выгоды от использования одной и другой видеокарты. Благо технология nVidia Optimus позволяет их легко переключать.

Как я и обещал, я не буду приводить характеристики этих адаптеров. Просто перечислю их, так сказать выгоды. Информацию я взял с сайтов производителей.

Итак, встречайте:

Intel HD Graphics 3000:


Этот графический адаптер включает в себя так называемые «технологии визуализации», среди которых масса интересных вещей, таких как:

Intel Quick Sync Video. Значительно увеличивает скорость создания, редактирования и обмена видеороликами.

Intel Wireless Display. Позволяет установить беспроводное соединение между ноутбуком и телевизором, для просмотра на нем всевозможного мультимедиа.

Intel In Tru 3D. Поддержка трехмерного стереоскопического изображения.

Intel Clear Video HD. Улучшает видеоизображение. Делает его более четким и насыщенным.

nVidia GeForce GT520M

  
Этот видеоадаптер обладает не меньшим набором всевозможных интересных технологий.

nVidia Optimus. Позволяет переключаться с одного видеоадаптера на другой. В нашем случае между GeForce GT520M и Intel HD Graphics 3000.

nVidia CUDA. Технология, которая позволяет выполнять ресурсоемкие задачи силами видеокарты. К примеру, перекодирование видео.

nVidia Pure Video HD. Технология которая ускоряет декодирование видео, а также улучает качество изображения.

nVidia PhysX. Позволяет рассчитывать поведение физических объектов в 3D-играх.

Перед тем как перейти к изучению этих технологий на практике, я хотел бы остановить Ваше внимание на таком термине как «объем видеопамяти», и его значении. Этот параметр можно узнать из спецификаций конкретной видеокарты. По большому счету эта характеристика, которая очень слабо влияет итоговую производительность видеоподсистемы. В самом общем случае процесс вывода изображения на экран выглядит так: видеокарта готовит картинку, и отправляет в видеопамять, откуда она и выводится на экран. Очевидно, что если объем видеопамяти слишком мал, то это может стать «узким местом» в процессе подготовки и вывода изображения. Но на практике, для современных мобильных видеокарт объема 512Mb – более чем достаточно, а все что больше – просто маркетинговый ход.

К слову сказать, у видеокарты nVidia 1Gb видеопамяти, а у Intel HD Graphics 3000 – он колеблется в зависимости от текущей задачи в пределах 64Mb – 1.7Gb.

Впрочем, вернемся к нашим технологиям.

Судя по описанию, технологии Intel Quick Sync и nVidia CUDA, смогут делать одно и то же. Ускорять редактирование видеороликов. Самое очевидное применение, чем я занимаюсь достаточно часто – это «пережать» какой-нибудь фильм для воспроизведения на портативном видеоплеере. В моем случае это Sony PSP. Что же, поискав в сети приложение, которое бы поддерживало обе эти технологии, я остановил свой выбор на Cyberlink Media Espresso
Программа, к сожалению платная, но с пробным периодом, без каких-либо ограничений. Для моих целей подойдет.

Перейдем к испытаниям.

Для своего эксперимента я взял FullHD мультик «Partly Cloudy», длинной 5:49 минут.

Этот мультик я подготавливал для воспроизведения на моей PSP. Для этого нужно изменить размер, и превратить в удобный для нее формат. К счастью в Media Espresso очень богатый набор предустановок, и все что от меня потребовалось это выбрать файл, и нажать «Вперед».

Я провел 3 замера. Время кодирования ролика с использованием nVidia CUDA, Intel QuickSync и силами центрального процессора. Вот они:  


Ну что. Обе технологии со своей задачей справляются. Судя по результатам «подготовка» полуторачасового фильма на моем ноутбуке, с использованием nVidia CUDA займет порядка 17 минут. Не мало, в тоже время с Intel Quick Sync – около 9 минут.
Иными словами «пережать» пару серий своего сериала перед поездкой на работу, во время распития утреннего кофе – более чем реально.

Следующая пара технологий - это Intel Clear Video HD и nVidia Pure Video HD. 

Если отбросить всю шелуху, вроде "кристально чистое изображение", и прочее, то в сухом остатке мы имеем следующее: Обе технологии могут силами видеоадаптеров воспроизводить видео. Что это дает? По сути это снимает нагрузку с центрального процессора, и в результате ноутбук потребляет меньше энергии, что, в свою очередь, позволит нам это видео смотреть гораздо дольше.

Проверим на практике. Берем тот же мультик, и проигрываем его, и параллельно смотрим энергопотребление при помощи программы AIDA64. Я использовал проигрыватель Cyberlink PowerDVD, т.к. в нем есть поддержка всех интересующих меня технологий, и интуитивно понятная настройка. Итак я провел 3 замера энергопотребления: с использованием Intel Clear Video HD, nVidia Pure Video HD, а также воспроизведение видео, силами процессора. Все замеры  я делал при максимальной яркости экрана. Итак:


Что мы  имеем в результате? Стандартная емкость батареи (6и-секционной) составляет приблизительно 55-60 Вт/ч. В частности у моего Asus - 56 Вт/ч. Нехитрыми вычислениями можно прикинуть время автономной работы ноутбука. В худшем случае она составит чуть более 2х часов, а в лучшем - больше 3х.

Выгода от использования этих технологий - на лицо.Однако как и в прошлый раз видеокарта Intel смотрится значительно лучше.

Испытать на практике Intel Wireless Display и Intel In Tru 3D пока возможности не представилось. Первую, в виду отсутствия приемника, для подключения к телевизору, а вторую, в виду отсутствия телевизора с поддержкой 3D.

Из не рассмотренных мной "фишек" осталась только nVidia PhysX. Но судя по описанию она применима только в 3D играх, и поэтому перейдем к следующей части моего повествования.

Не технологиями едиными живы видеокарты. Для полноты картины я решил провести измерения производительности двух моих "подопечных" в 3D приложениях. Для начала проверим теорию и воспользуемся популярным тестом 3D Mark Vantage. Я поставил настройки "performance", и выставил "родное" для моего ноутбука разрешение 1366х768. Вот результаты:



Более чем 60% превосходство, в тесте игровой производительности. Очень впечатляет.

Однако это теория. Для полноты картины я поставил две самых популярных игры 2010 года: Mass Effect 2 и Fallout: New Vegas. Также я воспользовался встроенным тестом производительности весьма популярной стратегии World in Conflict. В каждой из трех игр я замерял при помощи программы FRAPS максимальное, среднее и минимальное значение кадров в секунду. Как мы все помним человеческий глаз различает 24 кадра в секунду, соответственно все что больше можно считать комфортным уровнем для восприятия.

Начнем с World in Conflict. Я установил стандартное для ноутбука разрешение 1366х768, и выбрал настройки "Средние". В результате теста я увидел странную картину: видеокарта nVidia показала более высокую среднюю частоту кадров, но за счет большого количества "легких" для адаптера эпизодов. В насыщенных спецэффектами сценах - она полностью проваливалась, и картинка серьезно "подтормаживала". Видеокарта Intel, в свою очередь в процессе теста выглядела более "ровно", но средний результат у нее получился меньше.

Настройки тоже "Средние". Разрешение 1366х768. Картина еще более интересная - видеоадаптер HD Graphics 3000 смотрится по всем результатам выгоднее. Возможно это связано с особенностями игры и использованием ею ядра Havoc, который сильно оптимизирован по продукцию компании Intel.

Настройки "По умолчанию", разрешение 1366х768 
В этой игре мы наблюдаем схожую ситуацию, с World in Conflict. Хотя вобщем оба видеоадаптера находятся в паритете.

Какие выводы можно сделать из этой группы тестов? Обе видеокарты обеспечивают схожий уровень производительности, достаточный для игры в "родном" разрешении в современные 3D игры, с использованием средних, или средне-низких настроек.

Итог.

Как я и подозревал смысла в установке дополнительной видеокарты nVidia в этот ноутбук не было. Во всех проведенных мною игровых тестах она оказалась не намного лучше, а местами даже хуже адаптера Intel. Что касается неигровых возможностей то nVidia - и вовсе в аутсайдерах. Единственная стоящая технология реализованная в этой видеокарте - это nVidia Optimus, которая позволяет ее выключить. 

12 комментариев:

  1. Спасибо, интересная статья! Ее бы почитать производителям ноутбуков, которые делают такие конфигурации: нам-то, фактически, не остается выбора, что покупать.
    А еще хотелось бы увидеть сравнение с видеокартами Radeon, для полноты картины.

    ОтветитьУдалить
  2. Статья доступно и понятно написана. Жаль что нет возможности сравнить с радеонами. Наверняка игры на которых тестировалась производительность были заточены под АТИ. Этим и объясняется разница в производительности.

    ОтветитьУдалить
  3. Если честно, то без понятия под что они заточены. Мой первый ноутбук Toshiba, как раз с дискретной видеокартой ATI. HD3470, если не ошибаюсь... Могу с ним сравнить, если это кому-то интересно

    ОтветитьУдалить
  4. Спасибо ))) Помогло определиться в конце концов )))

    ОтветитьУдалить
  5. Привет. Хороший обзор, искал такой ).
    У меня вопрос: nvidia optimus выключается из BIOSа?

    ОтветитьУдалить
  6. Доброго всем дня!!Вопрос а можно ли обьеденить эти две видео карты в единое целое ,и как можно отключить видеокарту Nvidia??

    ОтветитьУдалить
  7. Данила ст. Кущевская- г. Адлер Олимпстрой21 октября 2011 г. в 09:35

    ПОдскажите немогу включить GT520M на ASUS K53S. работает только интегрированная видюха. в диспетчере устройств отображается только HD Graphics 3000. Слышал что можно как то переключиться в биосе на GT520M. это правда? если правда то подскажите как в каком разделе. Спасибо заранее......помогите вот мой тел. 8-952-83-94-158. HELP

    ОтветитьУдалить
  8. Не партесь насчёт видяхи, на этих буках когда работает 2Д приложение, то включена INTEL видяха, при запуске игр включается NVIDIA.

    ОтветитьУдалить
  9. перестала работать видеокарта в первые дни пользования ноутбуком.Выдавала ошибку 43

    ОтветитьУдалить
  10. Если Вам кто-то скажет, что на той или иной мобильной видеокарте можно классно играть в самые современные игры – можете смело плюнуть ему в лицо.
    Бред. Никто не позиционирует GT520M как ололо игровую карту. На той же GT520M уже можно играть в крусисы и фаркраи со сталкерами (за пруфами в ютуб).

    ОтветитьУдалить
  11. Интересная статья, согласен с тем что нет смысла ставить 520M с процессорами Core i3/i5/i7. Тут и правда нужна хотя бы 540М.

    ОтветитьУдалить