Софт-Архив

Gpu что это такое

Рейтинг: 4.2/5.0 (523 проголосовавших)

Описание

Что такое NVIDIA CUDA?

Что такое NVIDIA CUDA ?

CUDA. CUDA. CUDA вы удалились,

«Мощей» центрального процессора златые дни.

Немного терминологии

API (сокр. от англ. Application Programming Interface ) – программный интерфейс приложения.

DirectX – набор низкоуровневых программных интерфейсов (API ) для создания игр и других высокопроизводительных мультимедиа-приложений. Включает поддержку высокопроизводительной 2D - и 3D -графики, звука и устройств ввода.

Direct3D (D3D ) – интерфейс вывода трехмерных примитивов (геометрических тел). Входит в DirectX.

OpenGL (от англ. Open Graphics Library. дословно – открытая графическая библиотека) – спецификация, определяющая независимый от языка программирования кросс-платформенный программный интерфейс для написания приложений, использующих двухмерную и трехмерную компьютерную графику. Включает более 250 функций для рисования сложных трехмерных сцен из простых примитивов. Используется при создании видеоигр, САПР, виртуальной реальности, визуализации в научных исследованиях. На платформе Windows конкурирует с DirectX.

OpenCL (от англ. Open Computing Language. дословно – открытый язык вычислений) – фреймворк (каркас программной системы) для написания компьютерных программ, связанных с параллельными вычислениями на различных графических (GPU ) и центральных процессорах (CPU ). В фреймворк OpenCL входят язык программирования и интерфейс программирования приложений (API ). OpenCL обеспечивает параллелизм на уровне инструкций и на уровне данных и является реализацией техники GPGPU.

GPGPU (сокр. от англ. General- P urpose G raphics P rocessing U nits. дословно – GPU общего назначения) – техника использования графического процессора видеокарты для общих вычислений, которые обычно проводит центральный процессор.

Шейдер (англ. shader ) – программа построения теней на синтезируемых изображениях, используется в трехмерной графике для определения окончательных параметров объекта или изображения. Как правило, включает произвольной сложности описание поглощения и рассеяния света, наложения текстуры, отражения и преломления, затенения, смещения поверхности и эффекты пост-обработки. Сложные поверхности могут быть визуализированы при помощи простых геометрических форм.

Рендеринг (англ. rendering ) – визуализация, в компьютерной графике процесс получения изображения по модели с помощью программного обеспечения.

SDK (сокр. от англ. Software Development Kit ) – набор инструментальных средств разработки программного обеспечения.

CPU (сокр. от англ. Central Processing Unit. дословно – центральное/основное/главное вычислительное устройство) – центральный (микро)процессор; устройство, исполняющее машинные инструкции; часть аппаратного обеспечения ПК, отвечающая за выполнение вычислительных операций (заданных операционной системой и прикладным программным обеспечением) и координирующая работу всех устройств ПК.

GPU (сокр. от англ. Graphic Processing Unit. дословно – графическое вычислительное устройство) – графический процессор; отдельное устройство ПК или игровой приставки, выполняющее графический рендеринг (визуализацию). Современные графические процессоры очень эффективно обрабатывают и реалистично отображают компьютерную графику. Графический процессор в современных видеоадаптерах применяется в качестве ускорителя трехмерной графики, однако его можно использовать в некоторых случаях и для вычислений (GPGPU ).

Проблемы CPU

Долгое время повышение производительности традиционных одноядерных процессоров в основном происходило за счет последовательного увеличения тактовой частоты (около 80% производительности процессора определяла именно тактовая частота) с одновременным увеличением количества транзисторов на одном кристалле. Однако дальнейшее повышение тактовой частоты (при тактовой частоте более 3,8 ГГц чипы попросту перегреваются!) упирается в ряд фундаментальных физических барьеров (поскольку технологический процесс почти вплотную приблизился к размерам атома: сегодня процессоры выпускаются по 45-нм технологии. а размеры атома кремния – приблизительно 0,543 нм):

• во-первых, с уменьшением размеров кристалла и с повышением тактовой частоты возрастает ток утечки транзисторов. Это ведет к повышению потребляемой мощности и увеличению выброса тепла;

• во-вторых, преимущества более высокой тактовой частоты частично сводятся на нет из-за задержек при обращении к памяти, так как время доступа к памяти не соответствует возрастающим тактовым частотам;

• в-третьих, для некоторых приложений традиционные последовательные архитектуры становятся неэффективными с возрастанием тактовой частоты из-за так называемого «фон-неймановского узкого места» – ограничения производительности в результате последовательного потока вычислений. При этом возрастают резистивно-емкостные задержки передачи сигналов, что является дополнительным узким местом, связанным с повышением тактовой частоты.

Развитие GPU

Параллельно с совершенствованием CPU шло (и идет!) развитие GPU.

• Ноябрь 2008 г. – Intel представила линейку 4-ядерных центральных процессоров Intel Core i7. в основу которых положена микроархитектура нового поколения Nehalem. Процессоры работают на тактовой частоте 2,6 – 3,2 ГГц. Выполнены по 45-нм техпроцессу.

• Декабрь 2008 г. – начались поставки 4-ядерного центрального процессора AMD Phenom II 940 (кодовое название – Deneb ). Работает на частоте 3 ГГц, выпускается по техпроцессу 45-нм.

• Май 2009 г. – компания AMD представила версию графического процессора ATI Radeon HD 4890 с тактовой частотой ядра, увеличенной с 850 МГц до 1 ГГц. Это первый графический процессор, работающий на частоте 1 ГГц. Вычислительная мощность чипа, благодаря увеличению частоты, выросла с 1,36 до 1,6 терафлоп. Процессор содержит 800 (!) вычислительных ядер, поддерживает видеопамять GDDR5. DirectX 10.1. ATI CrossFireX и все другие технологии, присущие современным моделям видеокарт. Чип изготовлен на базе 55-нм технологии.

Основные отличия GPU

Отличительными особенностями GPU (по сравнению с CPU ) являются:

– архитектура, максимально нацеленная на увеличение скорости расчета текстур и сложных графических объектов;

– пиковая мощность типичного GPU намного выше, чем у CPU ;

– благодаря специализированной конвейерной архитектуре, GPU намного эффективнее в обработке графической информации, чем центральный процессор.

«Кризис жанра»

«Кризис жанра» для CPU назрел к 2005 г. – именно тогда появились первые 2-ядерные процессоры. Но, несмотря на развитие технологии многоядерности. рост производительности обычных CPU заметно снизился. В то же время производительность GPU продолжает расти. Так, к 2003 г. и кристаллизовалась эта революционная идея – использовать для нужд центрального процессора вычислительную мощь графического. Графические процессоры стали активно использоваться для «неграфических» вычислений (симуляция физики, обработка сигналов, вычислительная математика/геометрия, операции с базами данных, вычислительная биология, вычислительная экономика, компьютерное зрение и т.д.).

Главная проблема заключалась в том, что не было никакого стандартного интерфейса для программирования GPU. Разработчики использовали OpenGL или Direct3D. но это было очень удобно. Корпорация NVIDIA (один из крупнейших производителей графических, медиа- и коммуникационных процессоров, а также беспроводных медиа-процессоров; основана в 1993 г.) занялась разработкой некоего единого и удобного стандарта, – и представила технологию CUDA.

Как это начиналось

• 2006 г. – NVIDIA демонстрирует CUDA™ ; начало революции в вычислениях на GPU.

• 2007 г. – NVIDIA выпускает архитектуру CUDA (первоначальная версия CUDA SDK была представлена 15 февраля 2007 г.); номинация «Лучшая новинка» от журнала Popular Science и «Выбор читателей» от издания HPCWire.

• 2008 г. – технология NVIDIA CUDA победила в номинации «Техническое превосходство» от PC Magazine.

Что такое CUDA

CUDA (сокр. от англ. Compute Unified Device Architecture. дословно – унифицированная вычислительная архитектура устройств) – архитектура (совокупность программных и аппаратных средств), позволяющая производить на GPU вычисления общего назначения, при этом GPU фактически выступает в роли мощного сопроцессора.

Технология NVIDIA CUDA™ – это единственная среда разработки на языке программирования C. которая позволяет разработчикам создавать программное обеспечение для решения сложных вычислительных задач за меньшее время, благодаря многоядерной вычислительной мощности графических процессоров. В мире уже работают миллионы GPU с поддержкой CUDA. и тысячи программистов уже пользуются (бесплатно!) инструментами CUDA для ускорения приложений и для решения самых сложных ресурсоемких задач – от кодирования видео- и аудио- до поисков нефти и газа, моделирования продуктов, вывода медицинских изображений и научных исследований.

CUDA дает разработчику возможность по своему усмотрению организовывать доступ к набору инструкций графического ускорителя и управлять его памятью, организовывать на нем сложные параллельные вычисления. Графический ускоритель с поддержкой CUDA становится мощной программируемой открытой архитектурой, подобно сегодняшним центральным процессорам. Всё это предоставляет в распоряжение разработчика низкоуровневый, распределяемый и высокоскоростной доступ к оборудованию, делая CUDA необходимой основой при построении серьезных высокоуровневых инструментов, таких как компиляторы, отладчики, математические библиотеки, программные платформы.

Юрий Уральский, ведущий специалист по технологиям NVIDIA. сравнивая GPU и CPU. говорит так. «CPU – это внедорожник. Он ездит всегда и везде, но не очень быстро. А GPU – это спорткар. На плохой дороге он просто никуда не поедет, но дайте хорошее покрытие, – и он покажет всю свою скорость, которая внедорожнику и не снилась. ».

Возможности технологии CUDA

– стандартный язык C для параллельной разработки приложений на GPU ;

– стандартные библиотеки численного анализа для быстрого преобразования Фурье и базового пакета программ линейной алгебры;

– специальный драйвер CUDA для вычислений с быстрой передачей данных между GPU и CPU ;

– драйвер CUDA взаимодействует с графическими драйверами OpenGL и DirectX ;

– поддержка операционных систем Linux 32/64-bit. Windows XP 32/64-bit и Mac.

Набор инструментов CUDA

CUDA™ Toolkit – это среда разработки для GPU с поддержкой CUDA. основанная на языке C. Среда разработки CUDA включает:

C -компилятор nvcc ;

– библиотеки FFT и BLAS для GPU ;

– профилировщик;

– отладчик gdb для GPU ;

– драйвер CUDA runtime ;

– руководство по программированию.

Примечания

1. Технология NVIDIA CUDA не предлагает замену традиционному CPU и не оспаривает его первенства и главенства: GPU выступает в роли мощного со-процессора, то есть помощника центрального процессора.

2. Технология NVIDIA CUDA поддерживается графическими процессорами ускорителей GeForce (начиная с восьмого поколения – GeForce 8 Series. GeForce 9 Series. GeForce 200 Series ), Nvidia Quadro и Tesla.

3. Программисты, желающие опробовать технологию CUDA. могут загрузить CUDA -ресурсы (CUDA driver. CUDA toolkit. CUDA SDK ) со страницы CUDA Zone – Загрузить CUDA .

Gpu что это такое:

  • скачать
  • скачать
  • Другие статьи, обзоры программ, новости

    Отвечаем на вопрос: Что важнее для игр: CPU или GPU?

    Тестовая конфигурация

    Тесты проводились на следующем стенде:

    • Процессоры:
    • Core 2 Duo E8400 - 3000 @ 4200 МГц
    • Pentium E6300 - 2800 @ 3800 МГц
  • Видеокарты:
  • GeForce GTX 260 896 Mбайт - 576/1242/2000 @ 700/1512/2400 МГц (Zotac)
  • GeForce 9800 GT 512 Mбайт - 600/1500/1800 @ 720/1836/2300 МГц (Zotac)
  • Материнская плата: GigaByte GA-EX38-DS4, BIOS F3
  • Система охлаждения CPU: Cooler Master V8 ( 1100 об/мин)
  • Оперативная память: 2 x 2048 Мбайт DDR2 Hynix (Spec: 800 МГц / 6-6-6-18-2t / 1.8 В)
  • Дисковая подсистема: SATA-II 500 Гбайт, WD 5000KS, 7200 об/мин, 16 Мбайт
  • Блок питания: Thermaltake Toughpower 1200 Ватт (штатный вентилятор: 140-мм на вдув)
  • Корпус: открытый тестовый стенд
  • Монитор: 24" BenQ V2400W (Wide LCD, 1920x1200 / 60 Гц)
  • Программное обеспечение:
    • Операционная система: Windows 7 build 7600 RTM x86
    • Драйверы видеокарт: NVIDIA GeForce 197.13 WHQL
    • MSI AFTERBURNER 1.5.1
    Инструментарий и методика тестирования

    Для тестов мы подобрали процессоры и видеокарты от одних производителей, соответственно, Intel и NVIDIA. Это было сделано с целью меньшего влияния архитектурных особенностей комплектующих на общую картину. Были собраны две конфигурации: Core 2 Duo E8400 + GeForce 9800 GT 512 Мбайт и Pentium E6300 + GeForce GTX 260 896 Мбайт. Как видно, одна система с мощным процессором и слабой видеокартой, а вторая наоборот - со слабым CPU и мощным GPU.

    Все игры тестировались в разрешениях 1280х1024 и 1680х1050. В разрешении 1280х1024 система на базе Core 2 Duo E8400 и GeForce 9800 GT 512 Мбайт получит преимущество за счет мощного процессора. В более высоком разрешении - 1680х1050 - нагрузка в основном ляжет на видеокарту, поэтому вследствие возросшей роли графического адаптера майку лидера, предположительно, должна получить конфигурация с Pentium E6300 + GeForce GTX 260 896 Мбайт.

    В недавней статье "Сводное тестирование процессоров Core 2 Quad Q9550/Q9400/Q8300, Core 2 Duo E8400/E7600 и Pentium E6500/E5400 в играх" было выявлено немало игр, в которых процессор оказывает значительное влияние на производительность компьютера даже в высоких разрешениях, поэтому особенно интересно, чем закончится сегодняшнее противостояние.

    Мы не стали тестировать данные связки в разрешении 1920х1080, так как у видеокарты GeForce 9800 GT 512 Мбайт по естественным причинам в нем могли возникнуть проблемы с производительностью. Это можно посчитать существенным недостатком, но цель нашего исследования - не определить победителя в сегодняшнем противостоянии двух разных систем, а выявить основные тенденции и ответить на вопрос, что важнее при выборе "железа" для игр: процессор или видеокарта.

    В следующих играх использовались средства измерения быстродействия (бенчмарк):
    • Batman: Arkham Asylum
    • Colin McRae: DIRT 2
    • Crysis Warhead (ambush)
    • Far Cry 2 (ranch small)
    • Lost Planet: Colonies (area1)
    • Resident Evil 5 (scene 1)
    • S.T.A.L.K.E.R. Call of Pripyat (SunShafts)
    • World in Conflict: Soviet Assault
    Игра, в которой производительность замерялась путем загрузки демо сцен:
    • Left 4 Dead 2
    В данных играх производительность измерялась с помощью утилиты FRAPS v3.2.0 build 11412:
    • Avatar
    • Borderlands
    • Call of Duty: Modern Warfare 2
    • Dragon Age: Origins
    • Fallout 3: Broken Steel
    • Grand Theft Auto 4
    • Need for Speed: SHIFT
    • Prototype
    • Race Driver: GRID
    • Risen
    • Sacred 2: Ice & Blood

    Во всех играх замерялись минимальные и средние значения FPS.

    В тестах, в которых отсутствовала возможность замера минимального FPS. это значение измерялось утилитой FRAPS.

    VSync при проведении тестов был отключен.

    Чтобы избежать ошибок и минимизировать погрешности измерений, все тесты производились по три раза. При вычислении среднего FPS за итоговый результат бралось среднеарифметическое значение результатов всех прогонов. В качестве минимального FPS выбиралось минимальное значение показателя по результатам трех прогонов.

    Тестирование конфигураций проводилось в двух режимах работы:
    • В номинальном - Core 2 Duo E8400 @ 3000 МГц, 4 GB RAM @ 800 МГц (тайминги 6-6-6-18-2t), GeForce 9800 GT 512 Мбайт - 600/1500/1800 МГц и Pentium E6300 @ 2800 МГц, 4 GB RAM @ 800 МГц (тайминги 6-6-6-18-2t), GeForce GTХ 260 896 Мбайт - 576/1242/2000 МГц.
    • После разгона - Core 2 Duo E8400 @ 4200 МГц, 4 GB RAM @ 930 МГц (тайминги 5-5-5-15-2t), GeForce 9800 GT 512 Мбайт - 720/1836/2300 МГц и Pentium E6300 @ 3800 МГц, 4 GB RAM @ 960 МГц (тайминги 5-5-5-15-2t), GeForce GTХ 260 896 Мбайт - 700/1512/2400 МГц.

    Перейдем непосредственно к тестам.

    GPU-Z скачать бесплатно - GPU-Z 0

    GPU-Z 0.8.6 Скриншот GPU-Z

    GPU-Z — компактная бесплатная программа для извлечения и вывода всевозможных данных о графической плате компьютера. Вся, необходимая для понимая возможностей и характеристик видеокарты, информация предоставляется в компактной и наглядной форме. GPU-Z поддерживает платы графики NVIDIA, Intel и ATI.

    Среди данных, которые можно просмотреть в GPU-Z, можно упомянуть модель видеокарты, интерфейс подключения, тип графического процессора, температура видеокарты, скорости вращения кулера и т.п. Также в GPU-Z имеется функция «аттестации» платы графики, которая может служить подтверждением достижения рекордных частот графического процессора при разгоне.

    — Определение типа, частоты и количества памяти. Пропускная способность памяти.

    — Вывод информации о типе шины и ее ширине.

    - Добавлена поддержка DirectX 12.

    - Удалены модели считывания на шейдерах.

    - Пробуждение неактивных графических процессоров AMD на ноутбуках при запуске CPU-Z.

    - Потребление памяти нескольких графических процессоров Intel объединено в одно значение.

    - Сокращено название вендора Biostar до "Biostar".

    - Улучшено обнаружение объема памяти AMD Radeon.

    - Добавлена поддержка NVIDIA GeForce GTX 950, 920M, 845M, GT 710 (GK208), Microsoft Surface Book GPU, Quadro K610M, Quadro M5000M, M4000, M3000M.

    - Добавлена поддержка AMD R9 Nano, Carrizo, Kabini.

    - Добавлена поддержка Intel Iris Pro P6300, HD Graphics 5600, HD Graphics 520.

    Что такое графический процессор и как он работает

    Что такое графический процессор и как он работает

    На что мы смотрим в первую очередь, выбирая себе смартфон? Если на минутку отвлечься от стоимости, то в первую очередь мы, конечно, выбираем размер экрана. Затем нас интересует камера, объем оперативной, количество ядер и частота работы процессора. И тут все просто: чем больше, тем лучше, а чем меньше, тем, соответственно, хуже. Однако в современных устройствах используется еще и графический процессор, он же GPU. Что это такое, как он работает и почему про него важно знать, мы расскажем ниже.

    GPU (Graphics Processing Unit) — это процессор, предназначенный исключительно для операций по обработке графики и вычислений с плавающей точкой. Он в первую очередь существует для того, чтобы облегчить работу основного процессора, когда дело касается ресурсоемких игр или приложений с 3D-графикой. Когда вы играете в какую-либо игру, GPU отвечает за создание графики, цветов и текстур, в то время как CPU может заняться искусственным интеллектом или расчетами механики игры.

    Архитектура графического процессора не сильно отличается от архитектуры CPU, однако она более оптимизирована для эффективной работы с графикой. Если заставить графический процессор заниматься любыми другими расчетами, он покажет себя с худшей стороны.

    Видеокарты, которые подключаются отдельно и работают на высоких мощностях, существуют только в ноутбуках и настольных компьютерах. Если мы говорим об Android-устройствах, то мы говорим об интегрированной графике и том, что мы называем SoC (System-on-a-Chip). К примеру, в процессоре Snapdragon 810 интегрирован графический процессор Adreno 430. Память, которую он использует для своей работы, это системная память, в то время как для видеокарт в настольных ПК выделяется доступная только им память. Правда, существуют и гибридные чипы.

    В то время как процессор с несколькими ядрами работает на высоких скоростях, графический процессор имеет много процессорных ядер, работающих на низких скоростях и занимающихся лишь вычислением вершин и пикселей. Обработка вершин в основном крутится вокруг системы координат. GPU обрабатывает геометрические задачи, создавая трехмерное пространство на экране и позволяя объектам перемещаться в нем.

    Обработка пикселей является более сложным процессом, требующим большой вычислительной мощности. В этот момент графический процессор накладывает различные слои, применяет эффекты, делает все для создания сложных текстур и реалистичной графики. После того как оба процесса будут обработаны, результат переносится на экран вашего смартфона или планшета. Все это происходит миллионы раз в секунду, пока вы играете в какую-нибудь игру.

    Конечно же, этот рассказ о работе GPU является весьма поверхностным, но его достаточно для того, чтобы составить правильное общее представление и суметь поддержать разговор с товарищами или продавцом электроники либо понять — почему ваше устройство так сильно нагрелось во время игры. Позднее мы обязательно обсудим преимущества тех или иных GPU в работе с конкретными играми и задачами.

    По материалам AndroidPit

    Что такое графический процессор и как он работает by Эрнест Василевский

    ГРАФИЧЕСКИЙ ПРОЦЕССОР - это

    ГРАФИЧЕСКИЙ ПРОЦЕССОР это:

    ГРАФИЧЕСКИЙ ПРОЦЕССОР ГРАФИЧЕСКИЙ ПРОЦЕССОР

    ГРАФИЧЕСКИЙ ПРОЦЕССОР (Graphics Processing Unit, GPU) — микропроцессор (см. МИКРОПРОЦЕССОР ). специализированный для обработки графической информации. Он берет на себя часть функций по формированию трехмерного (3D) изображения и позволяет разгрузить центральный микропроцессор (CPU) от выполнения операций, связанных с расчетами геометрических трансформаций, моделей освещения и т. д. Как правило, графическим процессором (акселератором) оснащены все современные видеокарты (см. ВИДЕОАДАПТЕР ) ; однако он может быть встроен и в чипсет материнской платы.

    История графических процессоров

    История современных 3D-акселераторов, предназначенных для домашнего, а не профессионального использования, всерьез началась с компании 3Dfx. Видеокарты на основе процессора Voodoo Graphics (он же Voodoo 1) производства 3Dfx появились в продаже в 1997 году и надолго сделали название производящей их компании синонимом слова 3D-акселератор. Платы на этом процессоре были видеоакселераторами в чистом виде, то есть для работы требовали уже установленной в системе видеокарты. Типичное рабочее разрешение для Voodoo I составляло 512х384 пикселов, максимальное – 640х480 при 16-битной глубине цвета, поддерживалось до 4 МБ видеопамяти.

    Поддержало репутацию 3Dfx и следующее поколение — Voodoo 2. Отличия были кардинальными: вдвое большее количество текстурных блоков, что позволяло использовать мультитекстурирование (наложение более одной текстуры за такт). Тактовые частоты чипов (на плате их было два) и памяти повысились. Размер видеопамяти увеличился до 8—12 Мбайт, что позволяло использовать большие разрешения. Впервые в истории появилась видеокарта, реализующая трилинейную фильтрацию.

    Конкуренцию 3Dfx составляла с самого начала присутствовавшая на этом рынке компания ATI, хотя ее первый процессор — Rage 3D — проигрывал Voodoo I. Но в 1999 году в продаже появились карты на базе чипа Rage 128 и Rage 128 PRO (они же Rage Fury и Rage Fury PRO). PRO представлял собой разогнанный вариант обычного Rage 128 (частоты 140/160 и 103/103 МГц соответственно). В них впервые появилась аппаратная поддержка MPEG-2.

    Еще один игрок на этом рынке — компания nVidia, начинавшая с весьма приличного процессора Riva128 и Riva128ZX, в 1999 году выпустила серьезный чипсет Riva TNT, в котором появилась поддержка шины AGP, 32-битного цвета, разрешения до 1920х1440 пикселов. А на процессорах TNT2 выпускался знаменитый видеоакселератор Creative 3DBlaster TNT2 Ultra.

    Заметными в истории графических процессоров были G400 производства Matrox, которые, хоть и несколько проигрывали в скорости 3D-графики, но сочетание с великолепным качеством обработки двухмерного изображения сделало карты на этом чипе очень популярными среди тех, кому нужны от компьютера не только игры. Оценена была и «двуголовость» некоторых карт на этом процессоре — он мог поддерживать 2 монитора. Видеокарты на следующей версии этого процессора, G400MAX, уже позиционировались как профессиональные, и потому стоили (и стоят до сих пор) очень недешево, а покупали их в основном профессионалы-полиграфисты и верстальщики, не признающие мониторов дешевле 1000 долларов и разрешений ниже 1600х1200.

    Термин GPU был впервые использован компанией nVidia в августе 1999 в отношении главного чипа видеокарты нового поколения GeForce 256. От предшествующих графических чипов его отличала поддержка технологии Transform&Lighting. Эта технология заключалась в преобразовании координат виртуальных трехмерных объектов в плоские координаты, отображаемые на мониторе, и вычислении освещенности этих объектов. Это очень ресурсоемкие и сложные вычисления, особенно при большом количестве объектов. Ранее они выполнялись на центральном процессоре, отнимая значительную часть процессорного времени, либо на отдельных процессорах освещения и трансформации. Поэтому, благодаря появлению графических процессоров, с одной стороны, с CPU снималась часть нагрузки, что позволяло использовать его для решения других задач. С другой стороны, появилась возможность увеличения количества объектов и степени их прорисовки, что позволило добиться нового уровня реалистичности в 3D-приложениях, особенно в компьютерных играх.

    Плата GeForce 256 была дорогой и непроизводительной на приложениях, которые не использовали возможностей аппаратного T&L, и по-прежнему пользовались услугами ЦП для ручных вычислений. Поэтому другие производители видеокарт, например, ATI, 3dfx Interactive, Matrox, не поддержали новой технологии и пророчили ей скорое забвение. Ситуация изменилась с выходом игр, поддерживающих аппаратно реализованную технологию T&L — Quake III Arena, Unreal Tournament и др. Ввиду неоспоримых преимуществ аппаратного T&L перед программным вскоре он стал де-факто стандартом при программировании трехмерных игр. Компания ATI выпустила платы Radeon с его поддержкой, а два других конкурента вынуждены были уйти с рынка игровых видеоадаптеров.

    Новым этапом в развитии графических процессоров стало появление пиксельных и вершинных шейдеров. Шейдеры представляют собой программы, написанные на языке, похожем на язык ассемблера, и позволяющие непосредственно управлять GPU, которые ранее не были программируемыми. Вершинные шейдеры позволяют определять параметры пикселя (освещенность, прозрачность, отражающую способность, координаты, текстуру и т.д.), исходя из параметров вершин треугольника, содержащего его. Пиксельные шейдеры позволяют работать с каждым пикселем индивидуально, уже после проведения геометрических преобразований. Поддержка программируемых шейдеров на аппаратном уровне впервые была реализована в 2000 году, в GPU nVidia GeForce 2 и ATI Radeon R100 (позднее переименован в Radeon 7200). Однако программная часть поддержки была плохо реализована. В результате, после согласования спецификаций, программируемые шейдеры стали поддерживаться DirectX 8.0, и первыми видеокартами, в которых можно было в полной мере пользоваться их преимуществами, стали видеокарты с чипами GeForce 3 и Radeon 8500.

    Дальнейшее развитие графических процессоров обоих производителей происходило эволюционным путем: увеличивались тактовые частоты, добавлялась поддержка новых шейдерных моделей, улучшались технологии фильтрования и сглаживания. Все это позволяло добиваться новых уровней реалистичности при прорисовке объемных сцен.

    На 2006 основными производителями графических процессоров для домашних ПК являются ATI Technologies и nVidia. Процессоры 2006 изготавливаются, как правило, по 130 или 90 нм технологии и работают на частоте 400—600 МГц.

    Энциклопедический словарь. 2009 .

    Что такое GPU Diode? Архив форума Общие вопросы - Компьютерные форумы

      Нравится Не нравится
    Zets 22 Май 2006

    эверест показывает на нем

    60градусов и

    70градусов под нагрузкой, эт нормально?

      Нравится Не нравится
    Loco. 22 Май 2006
      Нравится Не нравится
    DVDshnik 23 Май 2006
      Нравится Не нравится
    ERROR 23 Май 2006
      Нравится Не нравится
    DVDshnik 23 Май 2006

    Термопара и термодиод - две большие разницы, однако.

      Нравится Не нравится
    Zets 23 Май 2006

    Видяха N6600, там помимо кулера есть еще радиатор(не знаю что он охлаждает), он бывает достаточно горяч. На старой материнке это давало глюки палигонов в играх, на новой вроде нечего. Хотел сделать возврат денег, но сволочи из компьютерной фирмы сказали что она рабочая и характеристики в норме, а то что греется и может сгореть их не волнует..

    50 (под нагрузкой доходит,как я понял по перезагружающемуся компу, и до 70).

    Свойства датчика:

    Тип датчика Winbond W83627HF (ISA 290h)

    Тип датчика ГП Fintek F75375S (NV-I2C 2Eh)

    Системная плата / Видеоадаптер Epox 4BDA / 4BDM / 4BEA / 4G4A / 4GEA / 4PDA / 4PEA / 4PGA Series / Asus N6600

    Как работает видеокарта и графический ускоритель

    Процесс построения трехмерного изображения

    2. Графический процессор располагает трехмерные модели в кадре, определяет, какие из входящих в них треугольников находятся на виду и отсекает скрытые другими объектами или, например, тенями.

    Затем создаются источники света и определяется их влияние на цвет освещаемых объектов. Этот этап рендеринга называется «трансформация и освещение» (T&L – Transformation & Lighting).

    3. На видимые треугольники накладываются текстуры с применением различных технологий фильтрации. Билинейная фильтрация предусматривает наложение на треугольник двух версий текстуры с различным разрешением. Результатом ее использования являются хорошо различимые границы между областями четких и размытых текстур, возникающие на трехмерных поверхностях перпендикулярно направлению обзора. Трилинейная фильтрация, использующая три варианта одной текстуры, позволяет создать более мягкие переходы.

    Однако в результате использования обеих технологий по-настоящему четко выглядят лишь те текстуры, которые расположены перпендикулярно к оси зрения. При взгляде под углом они сильно размываются. Для того чтобы это предотвратить, используется анизотропная фильтрация.

    Такой метод фильтрации текстур задается в настройках драйвера видеоадаптера либо непосредственно в компьютерной игре. Кроме того, можно изменять силу анизотропной фильтрации: 2х, 4х, 8х или 16х – чем больше «иксов», тем более четкими будут изображения на наклонных поверхностях. Но при увеличении силы фильтрации возрастает нагрузка на видеокарту, что может привести к снижению скорости работы и к уменьшению количества кадров, генерируемых в единицу времени.

    На этапе текстурирования могут использоваться различные дополнительные эффекты. Например, наложение карт среды (Enironmental Mapping) позволяет создавать поверхности, в которых будет отражаться игровая сцена: зеркала, блестящие металлические предметы и т.д. Другой впечатляющий эффект получается с применением карт неровностей (Bump Mapping), благодаря которому свет, падающий на поверхность под углом, создает видимость рельефа.

    Текстурирование является последним этапом рендеринга, после которого картинка попадает в кадровый буфер видеокарты и выводится на экран монитора.

    Электронные компоненты видеокарты

    Теперь, когда стало понятно, каким образом происходит процесс построения трехмерного изображения, можно перечислить технические характеристики компонентов видеокарты, которые определяют скорость процесса. Главными составными частями видеокарты являются графический процессор (GPU – Graphics Processing Unit) и видеопамять.

    Графический процессор

    Одной из основных характеристик этого компонента (как и центрального процессора ПК), является тактовая частота. При прочих равных условиях, чем она выше, тем быстрее происходит обработка данных, а следовательно – увеличивается количество кадров в секунду (FPS – frames per second) в компьютерных играх. Частота графического процессора – важный, но не единственный, влияющий на его производительность параметр – современные модели производства Nvidia и ATI, имеющие сопоставимый уровень быстродействия, характеризуются различными частотами GPU.

    Для адаптеров Nvidia, обладающих высокой производительностью, характерны тактовые частоты GPU от 550 МГц до 675 МГц. Частоту работы графического процессора меньше 500 МГц имеют «середнячки» и дешевые низкопроизводительные карты.

    В то же время GPU «топовых» карт производства ATI имеют частоты от 600 до 800 МГц, и даже у самых дешевых видеоадаптеров частота графического процессора не опускается ниже 500 МГц.

    Однако, несмотря на то, что графические процессоры Nvidia обладают меньшей частотой, чем GPU, разработанные ATI, они обеспечивают, по крайней мере, такой же уровень производительности, а зачастую – и более высокий. Дело в том, что не меньшее значение, чем тактовая частота, имеют другие характеристики GPU.

    1. Количество текстурных модулей (TMU – Texture Mapping Units) – элементов графического процессора, выполняющих наложение текстур на треугольники. От количества TMU напрямую зависит скорость построения трехмерной сцены.

    2. Количество конвейеров рендеринга (ROP – Render Output Pipeline) – блоков, выполняющих «сервисные» функции (пару примеров, pls). В современных графических процессорах ROP, как правило, меньше, чем текстурных модулей, и это ограничивает общую скорость текстурирования. К примеру, чип видеокарты Nvidia GeForce 8800 GTX имеет 32 «текстурника» и 24 ROP. У процессора видеокарты ATI Radeon HD 3870 только 16 текстурных моделей и 16 ROP.

    Производительность текстурных модулей выражается в такой величине как филлрейт – скорость текстурирования, измеряемая в текселах за секунду. Видеокарта GeForce 8800 GTX имеет филлрейт в 18,4 млрд текс/с. Но более объективным показателем является филлрейт, измеряемый в пикселах, так как он отражает скорость работы ROP. У GeForce 8800 GTX эта величина равна 13,8 млрд пикс./с.

    3. Количество шейдерных блоков (шейдерных процессоров), которые – как следует из названия – занимаются обработкой пиксельных и вершинных шейдеров. Современные игры активно используют шейдеры, так что количество шейдерных блоков имеет решающее значение для определения производительности.

    Не так давно графические процессоры имели отдельные модули для выполнения пиксельных и вершинных шейдеров. Видеокарты Nvidia серии GeForce 8000 и адаптеры ATI Radeon HD 2000 первыми перешли на унифицированную шейдерную архитектуру. Графические процессоры этих карт имеют блоки, способные обрабатывать как пиксельные, так и вершинные шейдеры – универсальные шейдерные процессоры (потоковые процессоры). Такой подход позволяет полностью задействовать вычислительные ресурсы чипа при любом соотношении пиксельных и вершинных расчетов в коде игры. Кроме того, в современных графических процессорах шейдерные блоки часто работают на частоте, превышающей тактовую частоту GPU (например, у GeForce 8800 GTX эта частота составляет 1350 МГц против «общих» 575 МГц).

    Обращаем ваше внимание на то, что компании Nvidia и ATI по-разному считают количество шейдерных процессоров в своих чипах. К примеру, Radeon HD 3870 имеет 320 таких блоков, а GeForce 8800 GTX – только 128. На самом деле, ATI указывает вместо целых шейдерных процессоров их составные компоненты. В каждом шейдерном процессоре содержится по пять компонентов, так что общее количество шейдерных блоков у Radeon HD 3870 – всего 64, поэтому и работает эта видеокарта медленнее, чем GeForce 8800 GTX.

    Видеопамять по отношению к GPU выполняет те же функции, что и оперативная память – по отношению к центральному процессору ПК: она хранит весь «строительный материал», необходимый для создания изображения – текстуры, геометрические данные, программы шейдеров и т.д.

    Что означает GPU?

    Что означает GPU? GPU (Графический процессор видеокарты)

    GPU (графический процессор) - высокотехнологическое устройство отвечающее за обработку графики в компьютерах, ноутбуках, мобильных телефонах. Современные GPU обладают специализированной конвейерной архитектурой, благодаря чему очень эффективно обрабатывают графическую информацию в сравнении с типичным центральным процессором. Может применяться как в составе дискретной видеокарты, так и в интегрированных решениях (встроенных в северный мост либо в гибридный процессор).

    Основные отличия GPU от CPU:

      Архитектура (максимальный упор на обработку графических текстур) Ограниченный набор исполнительных команд

    Высокая скорость и мощность процессоров GPU на данное время объясняется особенностями архитектуры построения. Если современные CPU состоят из 2-6 ядер, то GPU считается многоядерной структурой, использующей сразу до сотни ядер. CPU предполагает обработку информации последовательно, а GPU рассчитан на многопотоковую параллельную работу с массивом информации.