Nvidia
Плюсы. Плюсы в том, что Nvidia всегда хорошо оптимизирует свои драйвера под игры. То есть у этих карт обнаруживается меньше различных глюков и багов в игровых приложениях. Но меньше — не значит, что их нет!
Тому, кто собирается проводить на своих компьютерах математические вычисления, пригодится технология CUDA. Но большинство пользователей покупает карту, чтобы играть, а не просчитывать какие-либо алгоритмы.
Раньше несомненным достоинством видеокарт Nvidia было наличие физического движка Nvidia PhysX, однако теперь игр с ним практически не выпускают, а играть в «старьё» хотят немногие. Еще одним достоинством на тот момент являлась поддержка Nvidia 3D Vision. Вот, на мой взгляд, и все достоинства данных видеокарт. Теперь о недостатках.
Минусы. Первый и, пожалуй, самый решающий минус — это цена. В сегменте конкурирующих продуктов, например. Когда я выбирал между Nvidia GTX 470 и ATI Radeon 5850, Nvidia стоил почти 17 тысяч рублей, а Radeon — всего 10 700. И это практически при равной производительности!
Но в то время видеокарты ATI не поддерживали 3D, и тем, кто хотел играть в более интересном режиме, волей-неволей приходилось брать GTX 470. Сейчас же ситуация изменилась, и при выборе, например, между ATI Radeon 6970 и Nvidia GTX 580 я бы однозначно остановился на первой.
Второй, не менее удручающий минус — это температура. Моя GTX 470 в ресурсоёмких играх прогревалась до 97 градусов! Вы только подумайте! Такая печка подпортит температурный режим любого компьютера. Из-за неё очень сильно грелся процессор и материнская плата. На производительности это, конечно, не отражалось, но на разгон влияло очень сильно.
И повлияло еще на «долгожительство» в летнее время года. Карта «спеклась» в августе месяце и восстановлению не подлежала. Печально, не правда ли?
Потом мною была куплена Sapphire Radeon HD5850, которая летом в самых тяжелых синтетических тестах не прогрелась даже до 90 градусов. В играх же, как правило, температура её была не выше 62 градусов. Живёт она у меня и по сей день, уже год и два месяца.
Radeon
Плюсы. У этих карт более низкая цена при равной, а зачастую и большей производительности. Лично мне больше понравилось качество картинки на картах Radeon, чем на Nvidia. У Radeon более реалистичные и мягкие цвета, но это только моё мнение.
Более низкая температура по отношению к конкуренту. Энергопотребление карт от Radeon, как правило, ниже, чем у карт от Nvidia.
На картах референсного дизайна есть функция управления питанием, что привлечет любителей разгона. Можно играть и смотреть фильмы сразу на шести мониторах, соединив их в один огромный.
Минусы. Один из главных минусов — это работа видеокарты с тенями. Во многих играх тени просто ужасные. Они угловатые и теряют свою четкость буквально в двух метрах от того места, где вы находитесь. Когда я это увидел, ужаснулся.
Кривые в доску драйвера. Зачастую приходится долго ждать патчей для какой-нибудь игры, чтобы та, наконец, запустилась без багов, или самому копаться в настройках драйвера, чтобы хоть как-то поиграть. Это всё сильно утомляет и даже бесит.
Вот, кажется, и всё. Для себя я выбрал Radeon. Для меня не критичны его минусы, хоть иногда и утомляют. А вот минусы Nvidia кажутся недопустимыми. Хотя такое положение дел может измениться с выходом новых продуктов Nvidia.
Однако это всего лишь личное мнение на основе личного опыта, и я никого не призываю к нему прислушиваться. Тем более, что спор в стиле «Nvidia или Radeon» будет идти до тех пор, пока одна из компаний не перестанет существовать.
Нагревается видеокарта? Это проблема не видюхи, а охлаждения твоего компьютера, нагрев зависит от производителя видеокарты, асус это или зотак или еще 100500 других брендов
0 Ответить
Хотелось бы посмотреть сравнения SLI и CrossFire?
0 Ответить
Хочу собрать сама комп, прислушаюсь к Вашим советам. Хотя я не увлекаюсь играми. За полезность информации 5.
0 Ответить
Снова холивары!?
Оценка статьи: 1
0 Ответить
Иван, а почему ATI? Эта фирма уже давно куплена AMD, и сейчас производителем выступает AMD.
Оценка статьи: 5
0 Ответить
CUDA кстати нужна не только для математических расчетов. Еще некоторые конвертеры видео её поддерживают, чтобы ускорить процесс конвертации. и кстати кодировать видео с помощью видеокарты быстрее, чем процессором. кстати про режимы SLI и Crossfire ничего не написали.
upd: и кстати Nvidia physx не умер. выходят игры которые его поддерживают хотя их не так много как хотелось бы. например Borderlands 2 будет поддерживать физику от nvidia.
0 Ответить