Что такое GPU в в вашем компьютере? GPU что это в компьютере

Если вы можете похвастаться компьютером с хорошей видеокартой, то можно начать добывать биткоины прямо сейчас. Однако для того, чтобы увеличить прибыль и заниматься этим профессионально, мы рекомендуем приобрести несколько видеокарт (оптимально от 4 до 6) и собрать собственную .

За счёт установки нескольких видеоадаптеров вы сможете повысить уровень производительности компьютера, который будет считать намного быстрее т.к. именно видеокарты дают всю вычислительную мощность для майнинга (для большинства алгоритмов).

Отметим, что с учетом текущих цен на видеокарты в 2019 году стал выгоднее облачный GPU майнинг, который выгоднее покупки собственного оборудования, намного более гибкий в размере инвестиций и не требует обслуживания своих ферм. Мы сделали с рейтингом лучших сервисов по итогам нескольких последних лет.

Навигация по материалу:

Сколько можно заработать на одной видеокарте?

Имея некоторое представление о том, как , следует знать, какие видеоадаптеры подходят лучше всего для майнинга. Отличным вариантом станет AMD Radeon пятой серии и выше. Так как от производительности данного девайса будет зависеть итоговая сумма вашего заработка, рекомендуется обзавестись флагманами.

Есть мнение, что при использовании видеокарт производства AMD скорость вычисления немного выше, чем у аналогов под брендом nVidia. Но это сильно зависит от алгоритма вычислений на котором строится каждая конкретная криптовалюта. Соответственно, чем больше вычислений в секунду, тем существеннее ваш заработок.

Важно помнить, что если вы решите майнить, используя одну, даже самую топовую видеокарту, её производительности будет недостаточно. Вы потратите очень много времени, прежде чем добудете 1 BTC. Например, если будет задействован GPU Radeon HD 7970, ваш результат будет около 555 MH/s, а дневная добыча — на уровне 0,0031 BTC, или 80 центов. При этом стоит учитывать, что во время майнинга потребление электроэнергии возрастает. Поэтому такой способ добычи криптовалюты считается нецелесообразным.

Какую видеокарту выбрать — производительность на разных алгоритмах

Зная, как заработать на видеокарте, будущий майнер оказывается перед непростым выбором между тем или иным видеоадаптером, который необходимо приобрести для самодельной фермы.

GTX 1080

GTX 1050

Приведённые в таблице модели окупаются намного быстрее своих аналогов и являются, судя по отзывам специалистов, наилучшим выбором для майнинга в 2019 году. Например, GTX 1070/1060 и RX 480/470 окупятся за 5-6 месяцев. Также не стоит забывать, что добывать криптовалюту с каждым днем становится всё сложнее, однако её стоимость постоянно растёт, что позволяет удерживать необходимый баланс, привлекая к майнингу новых людей.

Наиболее популярными для майнинга криптовалюты являются решения от лагеря красных — AMD. Связано это с конструктивными особенностями видеокарт, поэтому пользователи в первую очередь скупают такие решения, как Radeon RX 470 и выше. Тем не менее сегодня отставание по мощности для майнинга видеоадаптеров от Nvidia не колоссальное, поэтому такие популярные модели, как GTX 1060 и выше разлетаются как горячие пирожки.

Кстати, теория заговора о повышения интереса к криптовалюте со стороны производителей видеокарт имеет место быть, поскольку компания Nvidia готовит специализированные видеокарты для майнинга под названиями P104-100 и P106-100. Отличаются эти решения от классических видеоадаптеров тем, что ни не имеют видеовыходов, оснащены слабым охлаждением и обладают ограниченной гарантией. Именно поэтому обычному пользователю все же рентабельнее приобрести топовое решение в лице той же GTX 1070, ведь ее всегда можно будет продать геймеру, тем самым частично отбив ее первоначальную стоимость.

Расчет окупаемости видеокарт

GPU: Окупаемость: Без учета э/энергии:
Radeon RX 470 183 дня. (16% в мес) 145 дней. (20.6% в мес)
Radeon RX 480 193 дня (15.5% в мес) 156 дней (19.2% в мес)
Geforce GTX 1060 154 дня (19.4% в мес) 130 дней (23% в мес)
Geforce GTX 1070 185 дней (16.2% в мес) 162 дня (18.5% в мес)
Radeon Fury X 278 дней (10.7% в мес) 213 дней (14% в мес)

Как вы могли заметить из таблицы выше, самыми выгодными для майнинга на данный момент являются видеокарты Nvidia Geforce GTX 1060 3gb и Radeon RX 470 4gb. Стоит отметить, что это справедливо только на данный момент и на самом выгодном сейчас алгоритме Equihash, что будет дальше, какие алгоритмы появятся в будущем и как на них поведут себя данные видеокарты не известно.

Если вас интересует доходность майнинга именно сейчас, то вы можете выбирать Geforce GTX 1060 если вы поклонник Nvidia или Radeon RX 470 — если предпочитаете GPU от AMD. Для расчета прибыльности майнинга используются (данные в них могут сильно различаться даже в течении одного дня, поскольку курс может резко меняться).

Разгон видеокарт для повышения хешрейта при майнинге

Повышение производительности GPU карт для майнинга это неотъемлемая часть настройки фермы. Разгон может производиться с помощью специальных программ работающих из операционной системы, для этого мы рекомендуем MSI Afterburner. Также может быть достигнут за счет перепрошивки биоса.

Подробно , там же присутствуют и видео инструкции для карт AMD и Nvidia (принцип их разгона немного различается).

Стоит отметить, что гарантия на эти видеокарты составляет всего 3 месяца . Запуск видеокарт для майнинга на Nvidia GTX ожидается в середине июня, но у разных поставщиков сроки могут меняться. Заявлено, что на графическом чипе P104-100 производительность/ватт увеличилась на 30% в сравнении с GTX 1060 3 Гб. А чип P106-100 в сравнении с той же видеокартой дает прирост 10%. Обе видеокарты выпускаются без видеоинтерфейсов.

Видеокарта Nvidia P104-100 использует тот же самый дизайн что и Nvidia GeForce GTX 1080. Но предоставляет гораздо больше производительности на 1 ватт потребленной электроэнергии, так как адаптер специально доработан для майнинга на Nvidia GTX. Карты от разных производителей поставляются с разными частотами чипов, в то время как эта базовая модель работает на базовой частоте 1607 МГц. Разгонная частота составляет 1733 МГц с пропускной способностью памяти 10 Гб/с GDDR5X при ширине шины в 256 бит.

Питание подается при помощи одного 8-контактного разъема, а энергопотребление примерно составляет 180 Вт. Базовая модель графического адаптера планируется к отгрузке по цене 350 долларов США, а вот модель от производителя Inno3D заявлена по цене в 370$ – Inno3D P6D-N104-1SDN P104-100 Twin X2 8GB GDDR5X. Эти цены значительно меньше, чем цены на их игровые аналоги (499$).

Заявленная производительность майнинга на Nvidia GTX P104-100 будет приблизительно около 60 МХ/с, но эта производительность будет достигнута только после обновления BIOS адаптера на новую прошивку.

Модель Nvidia P106-100 использует ту же конструкцию, что и Nvidia GeForce GTX 1060. Это дало возможность настроить графический адаптер под майнинг на Nvidia GTX значительно более эффективно. Адаптер работает на базовой частоте в 1506 МГц, турбо частота при этом составляет 1708 МГц, а пропускная способность памяти 8 Гб/с GDDR5 при шине 192 бита. Питание будет передаваться через 6-контактный разъем, а энергопотребление составит 120 Вт.

Цена базовой модели на рынке США составит 200$, что на 49$ дешевле игрового аналога GeForce GTX 1060 6 Гб. Вот цена конкретного адаптера Inno3D (N5G-N106-4SDN P106-100 Twin X2 6GB GDDR5) – 235$.

Немецкого исследователя об использовании вычислений GPU в эконофизике и статистической физике, в том числе для осуществления анализа информации на фондовом рынке. Мы представляем вашему вниманию основные тезисы этого материала.

Примечание: Статья в журнале датирована 2011 годом, с тех пор появились новые модели GPU-устройств, однако общие подходы к использованию этого инструмента в инфраструктуре для онлайн-трейдинга остались неизменными

Требования к вычислительным мощностям растут в различных сферах. Одна из них - финансовый анализ, который необходим для успешной торговли на фондовом рынке, особенно средствами HFT. Для того, чтобы принять решение о покупке или продаже акций, алгоритм должен проанализировать серьезный объём входных данных - информация о транзакциях и их параметрах, текущих котировках и трендах изменения цены и т.д.

Время, которое пройдет от создания заявки на покупку или продажу до получения ответа о ее успешныом выполнеии от биржевого сервера называется раундтрипом (round-trip, RTT). Участники рынка всеми силами стремятся снизить это время, в частности для этого используются технологии прямого доступа на биржу, а серверы с торговым софтом располагаются на колокации рядом с торговым движком бирж.

Однако технологические возможности по сокращению раундтрипа ограничены, и после их исчерпания перед трейдерами встает вопрос о том, как еще можно ускорить торговые операции. Для этого применяются новые подходы к построению инфраструктуры для онлайн-трейдинга. В частности используются FPGA и GPU. Об ускорении HFT-трейдинга с помощью «программируемого железа» мы писали ранее, сегодня речь пойдет о том, как для этого можно применять графические процессоры.

Что такое GPU

Архитектура современных графических карт строится на основе масштабируемого массива потоковых мультипроцессоров. Один такой мультипроцессор содержит восемь скалярных процессорных ядер, многопоточный модуль инструкций, разделяемую память, расположенную на чипе (on-chip).

Когда программа на C, использующая расширения CUDA, вызывает ядро GPU, копии этого ядра или потоки, нумеруются и распределяются на доступные мультипроцессоры, где уже начинается их выполнение. Для такой нумерации и распределения сеть ядра подразделяется на блоки, каждый из которых делится на различные потоки. Потоки в таких блоках выполняются одновременно на доступных мультипроцессорах. Для управления большим количеством потоков используется модуль SIMT (single-instruction multiple-thread). Этот модуль группирует их в «пачки» по 32 потока. Такие группы исполняются на том же мультипроцессоре.

Анализ финансовых данных на GPU

В финансовом анализе применяется множество мер и показателей, расчет которых требует серьезных вычислительных мощностей. Ниже мы перечислим некоторые из них и сравним быстродействие при их обработке, показанное «обычным» процессоромо Intel Core 2 Quad CPU (Q6700) c тактовой частотой 2,66 ГГц и размером кэша 4096 килобайт, а также популярных графических карт.
Экспонента Херста
Мера, называемая экспонентной Херста, используется в анализе временных рядов. Эта величина уменьшается в том случае, если задержка между двумя одинаковыми парами значений во временном ряду увеличивается. Изначально это понятие применялось в гидрологии для определения размеров плотины на реке Нил в условиях непредсказуемых дождей и засух.

Впоследствии показатель Херста начали применять в экономике, в частности, в техническом анализе для предсказания трендов движения ценовых рядов. Ниже представлено сравнение быстродействия вычисления показателя Херста на CPU и GPU (показатель «ускорения» β = общее время выисления на CPU / общее время вычисления на GPU GeForce 8800 GT):

Модель Изинга и метод Монте-Карло
Еще одним инструментом, перекочевавшим в сферу финансов на этот раз из физики, является модель Изинга . Эта математическая модель статистической физики предназначена для описания намагничивания материала.

Каждой вершине кристаллической решётки (рассматриваются не только трёхмерные, но и одно- и двумерные вариации) сопоставляется число, называемое спином и равное +1 или −1 («поле вверх»/«поле вниз»). Каждому из 2^N возможных вариантов расположения спинов (где N - число атомов решётки) приписывается энергия, получающаяся из попарного взаимодействия спинов соседних атомов. Далее для заданной температуры рассматривается распределение Гиббса - рассматривается его поведение при большом числе атомов N.

В некоторых моделях (например, при размерности > 1) наблюдается фазовый переход второго рода. Температура, при которой исчезают магнитные свойства материала, называется критической (точка Кюри). В ее окрестности ряд термодинамических характеристик расходится.

Изначально модель Изинга использовалась для понимания природы ферромагнетизма, однако позднее получила и более широкое распространение. В частности, она применяется для обобщений в социально-экономических системах. Например, обобщение модели Изинга определяет взаимодействие участников финансового рынка. Каждый из них обладает стратегией поведения, рациональность которой может быть ограничена. Решения о том, продавать или покупать акции и по какой цене, зависят от предыдущих решений человека и их результата, а также от действий других участников рынка.

Модель Изинга используется для моделирования взаимодействия между участниками рынка. Для реализации модели Изинга и имитационного моделирования используется метод Монте-Карло, который позволяет построить математическую модель для проекта с неопределенными значениями параметров.

Ниже представлено сравнение быстродействия моделирования на CPU и GPU (NVIDIA GeForce GTX 280):

Существуют реализации модели Изинга с использованием в ходе анализа различного количества спинов. Мультиспиновые реализации позволяет загружать несколько спинов параллельно.

Ускорение с помощью нескольких GPU

Для ускорения обработки данных также используются кластеры GPU-устройств - в данном случае исследователи собрали кластер из двух карточек Tesla C1060 GPU, коммуникация между которыми осуществлялась через Double Data Rate InfiniBand.

В случае симуляции модели Изинга методом Монте-Карло результаты говорят о том, что производительность повышается практически линейно при добавлении большего количества GPU.

Заключение

Эксперименты показывают, что использование графических процессоров может приводить к существуенному повышению производительности финансового анализа. При этом выигрыш в скорости по сравнению с использованием архитектуры с CPU может достигать нескольких десятков раз. При этом добиться еще большего повышения производительности можно с помощью создания кластеров GPU - в таком случае она растет практически линейно.

GPU (Graphics Processing Unit) является электронным устройством, разработанным для построения и обработки 2D или 3D изображения с последующим его выводом на экран. GPU широко используются в настольных компьютерных системах, мобильных телефонах, серверах и игровых консолях.

Применение GPUСовременные графические чипы устанавливаются на платах компьютерных видеокарт или интегрируются в материнские платы с целью экономии занимаемого компьютером пространства.

GPU позволяют эффективно обрабатывать компьютерную графику, что делает их самой используемой разновидностью чипов для вывода графической информации на экран. Впервые термин GPU был применен в 1999 г. компанией Nvidia на презентации видеокарты GeForce 256, которая на тот момент была самой производительной платой компании. Процессор модели мог обрабатывать около 10 млн графических полигонов в секунду.ФункцииGPU состоит из специальных транзисторов, большинство которых используется для обработки трехмерных изображений. Изначально графические процессоры были созданы с целью ускорения построения текстур и скорости обработки графических полигонов компьютерами, однако позднее графические ядра научились производить геометрические вычисления, что также ускорило скорость и качество показа изображений. Последние разработки в GPU включают в себя активацию поддержки программируемых шейдеров, технологии для уменьшения эффектов наложения элементов изображения друг на друга. Также новые графические процессоры способны более точно передавать цвета на монитор. Современные видеокарты поддерживают потоковую трансляцию видеоизображения с различных источников, подключенных через специальные интерфейсы.Типы GPUГрафические платы можно разделить на три типа: дискретные, встроенные и гибридные. Дискретные видеокарты устанавливаются в отдельный слот на материнской плате компьютера или портативного устройства (ноутбука) через специальный интерфейс (например, PCI-Express или AGP). Данная разновидность GPU имеет наиболее мощные производительные характеристики за счет особой структуры видеомодуля и его мощностных показателей. Также при необходимости дискретная видеокарта может быть с легкостью заменена на плату другой модели. Такие технологии, как SLI или CrossFire, позволяют объединять несколько видеоплат, чтобы еще больше улучшить производительность графической подсистемы.Встроенные GPU используются в портативных устройствах и имеют скромные вычислительные показатели из-за малого размера платы, а также сложностей их систем охлаждения и структурных особенностей. Гибридные видеокарты являются новым классом адаптеров, которые призваны заменить встроенные и дискретные модули. Новая технология создается с целью увеличения скорости обмена данными с системной оперативной памятью и процессором для улучшения производительности графики в целом. Гибридная карточка может быть встроена в материнскую плату, но при этом работать на базе технологии дискретных видеокарт PCI-Express.

Главный чип на материнской плате – это центральный процессор (CPU – Central Processor Unit). Центральный, потому что управляет всеми остальными подсистемами, с помощью системы шин и чипсета.

Подсистема, которая управляет визуализацией и выводом информации на экран называется видеосистемой. Она интегрируется в материнскую плату через слот в виде видеокарты. Видеокарта – инженерное решение и представляет собой плату с собственным процессором (тем самым GPU) и оперативной памятью.

GPU NVidia Nv45 на видеокарте

Процессор на видеокарте называют GPU (Graphic Processor Unit), чтобы подчеркнуть:

  1. Что это процессор.
  2. Что он не центральный, то есть подчиненный для CPU.
  3. Что он ориентирован на обработку специальных данных – графики.

Расположение GPU на материнской плате

Поскольку обработка графики – это специализация в обработке данных, GPU – это специализированный CPU. Логически специализация выражается отделением GPU от CPU, физически – тем, что GPU устроен иначе.

CPU содержит десятки ядер, GPU - тысячи

Такая физическая реализация GPU обоснована необходимостью обрабатывать тысячи параллельных задач, связанных с отрисовкой. Центральный процессор ориентирован на обработку данных – долгие и последовательные задачи.

Современный ЦП (CPU) может включать в себя графический процессор.

Четрыехядерный процессор с дополнительным графическим ядром GPU

Такое решение позволяет компьютеру обойтись без видеокарты за счет встроенного в центральный процессор GPU. Это снижает потребляемую энергию от 30 до 180%. Стоимость процессора при этом возрастает не более чем на 20%.

Главный минус такой реализации – низкая производительность. Такое решение подходит для офисных компьютеров, где работают с документами и базами данных, но современную компьютерную игру на нем не запустишь, Фотошоп будет притормаживать, а Автокад может зависнуть намертво.

Как узнать GPU в компьютере

Для пользователя GPU прочно ассоциируется с видеокартой, хотя это только процессор. Знать, какой графический адаптер установлен в компьютере полезно в трех случаях:

  • при установке или обновлении драйверов;
  • при оценке компьютера на соответствие системным требованиям программного обеспечения;
  • чтобы хвастаться перед друзьями.

Ели на компьютере установлены все драйвера, то самый быстры способ – посмотреть в диспетчере устройств, в разделе видеоадаптеры:

Просмотр GPU в диспетчере устройств

Если драйвера не установлены диспетчер устройств покажет только надпись о неизвестных устройствах:

GPU в диспетчере устройств в случае отсутствия драйверов

В этом случае скачайте утилиту CPU-Z, запустите и перейдите на вкладку «Графика» (Graphics в англ. версии):

Просмотр GPU в программе CPU-Z

helpadmins.ru

GPU что это в компьютере?

Всем привет GPU это обозначение видеокарты, если быть точнее то графический процессор. Данное слово, ну то есть аббревиатуру часто можно встретить в каких-то характеристиках, ну вот например в характеристиках процессора Intel есть такое понятие как Integrated GPU, что означает встроенная видеокарта. Ну все верно, она реально встроена, видео чип сидит прямо в процессоре, это не новость как бы

То есть вывод мы уже сделали, GPU это видюха. Но что еще важно понимать? Я вот писал, что GPU встречается в характеристиках, все верно, по помимо этого также можно встретить и в программах, которые показывают температуру. Я думаю что вы такие проги знаете.. Ну или не знаете, короче в любом случае, то что я сейчас напишу, то это вам будет полезно знать. Значит речь идет про температуру GPU. Многие уверяют, что видюха может работать и при 80 градусах, а вот я заявляю что это слишком высокая температура! Да и вообще я считаю что выше 70 это не норма!

Кстати GPU расшифровывается как Graphics Processing Unit

А вот и сам графический чип, ну то есть GPU, вот я его стрелочками указал на плате:

Но какая тогда норм температура? До 60 градусов, ну максимум 66, ну 70 градусов это уже потолок… Но выше я думаю что это уже не оч хорошо, просто срок службы точно не продлит такая температура, согласны со мной? Ну и еще есть интересный момент, короче если видюха прилично греется, то блин она еще и выкидывает свое тепло в корпус, ну в нем явно не будет прохладно, а тут и процессу станет жарко, короче веселуха! Помните, что именно ТЕМПЕРАТУРА способна снизить срок работы устройства! Вот на старых материнках от высокой температуры взрывались электролитические конденсаторы.. Если не верите, то можете сами посмотреть в интернете..

Ну вот скажите мне, вам тут все было понятно? Честно, буду надеяться что да! Ну а если что не так, ну так уж извините!

На главную! видеокарта 17.05.2017

virtmachine.ru

Что означает GPU?

GPU (Графический процессор видеокарты)

GPU (графический процессор) - высокотехнологическое устройство отвечающее за обработку графики в компьютерах, ноутбуках, мобильных телефонах. Современные GPU обладают специализированной конвейерной архитектурой, благодаря чему очень эффективно обрабатывают графическую информацию в сравнении с типичным центральным процессором. Может применяться как в составе дискретной видеокарты, так и в интегрированных решениях (встроенных в северный мост либо в гибридный процессор).

Основные отличия GPU от CPU:

  1. Архитектура (максимальный упор на обработку графических текстур)
  2. Ограниченный набор исполнительных команд

Высокая скорость и мощность процессоров GPU на данное время объясняется особенностями архитектуры построения. Если современные CPU состоят из 2-6 ядер, то GPU считается многоядерной структурой, использующей сразу до сотни ядер. CPU предполагает обработку информации последовательно, а GPU рассчитан на многопотоковую параллельную работу с массивом информации.

windows-gadjet.ru

Что такое GPU и для чего нужен

Графический процессор или на английском GPU – Graphics Processing Unit – это устройство, представляющие собой микросхему, чип, являющуюся частью видеоадаптера (видеокарты) или материнской платы.

Графический процессор отвечает за построение (рендеринг) изображения.

Упрощенно роль и значение GPU можно описать так:

GPU получает от центрального процессора (CPU) данные на обработку, требуемые для построения изображения, после обрабатывает их и подготавливает для дальнейших операций, тем самым многократно ускоряет процесс формирования изображения и снижает нагрузку на центральный процессор

Графический процессор является необязательным компонентом, его работу способен выполнять центральный.

В отличие от центрального процессора, графический, в силу различия архитектур (строения, устройства), способен обрабатывать в десятки, сотни, тысячи раз быстрее определенные типы операций, например, обработку данных для построения изображения и не только.

GPU может быть дискретным, то есть входить в состав видеокарты, выполняемой в виде платы (устройства) расширения, устанавливаемого в слот расширения материнской платы.В таком случае все дополнительные компоненты располагаются на одной печатной плате, которую в любой момент можно легко извлечь или заменить.

Или является интегрированным, частью самой материнской платы устройства.В таком случае, графический процессор располагается на материнской плате, все дополнительные компоненты расположены неподалеку. Применяется в персональных компьютерах, смартфонах, игровых приставках и так далее.

19-06-2017, 20:38 Detaillook

www.detaillook.com

NVIDIA GPU и сравнение GPU и CPU

Облачные вычисления кардинально изменили все отрасли промышленности, демократизировав дата-центры и полностью изменив принципы работы предприятий. Самые важные активы компании теперь хранятся в облаке выбранного вами провайдера. Однако, чтобы извлечь максимальную пользу из имеющихся данных, требуется подходящее высокопроизводительное вычислительное решение.

ПО NVIDIA Deep Learning создано для обеспечения максимальной производительности на самых быстрых в мире GPU и содержит оптимизированные фреймворки глубокого обучения, библиотеки, драйверы и ОС.Это унифицированное ПО работает на различных вычислительных платформах, начиная от видеокарт TITAN X и GeForce GTX 1080Ti и заканчивая системами DGX и облаком, и доступно круглосуточно.

Облачные вычисления на GPU также доступны по запросу на всех основных облачных платформах.

КАК ПРИЛОЖЕНИЯ ПОЛУЧАЮТ УСКОРЕНИЕ НА GPU

GPU обрабатывает части приложения, требующие большой вычислительной мощности, при этом остальная часть приложения выполняется на CPU. С точки зрения пользователя, приложение просто работает значительно быстрее.


Простой способ понять разницу между GPU и CPU - сравнить то, как они выполняют задачи. CPU состоит из нескольких ядер, оптимизированных для последовательной обработки данных, в то время как GPU имеет тысячи более мелких и энергоэффективных ядер, созданных для выполнения нескольких задач одновременно.

GPU состоит из тысячи ядер для эффективной обработки параллельных задач


Посмотрите видеоролик ниже, что сравнить GPU и CPU

Видео: "Разрушители легенд наглядно показывают мощь вычислений GPU против CPU" (01:34)

Более 400 приложений,-включая 9 из 10 ведущих HPC-приложений, уже получили ускорение на GPU, благодаря чему все пользователи графических процессоров могут добиться значительно повышения производительности для своих задач. Посмотрите в нашем каталоге приложений, имеет ли приложение, с которым вы работаете, GPU ускорение (PDF 1,9 MБ).

Существует три основных метода, чтобы добавить в ваше приложение GPU-ускорение:

  • Использовать GPU-оптимизированные библиотеки
  • Добавить директивы или "подсказки" компилятору для автоматического распараллеливания вашего кода
  • Использовать расширения для языков программирования, которые вы уже знаете, например, C и Fortran

Узнать, как использовать GPU с моделью параллельного программирования CUDA, очень легко.

Бесплатные онлайн занятия и ресурсы для разработчиков доступны на CUDA Zone.

Привет, друзья.

Вы любите поиграть в реалистичные игры на компе? Или посмотреть фильм в качестве, при котором четко видно каждую мелочь? Значит, вы должны представлять, что такое gpu в компьютере. Ничего о нем не знаете? Моя статья поможет вам избавиться от этого недоразумения;-).


GPU - это не видеокарта

Неизвестное для многих сочетание букв подразумевает под собой понятие «graphics processing unit», что на нашем языке означает графический процессор. Именно он отвечает за воспроизведение картинки на вашем железе, и чем лучше его характеристики, тем качественнее будет изображение.

Всегда считали, что эти функции выполняет ? Вы, конечно, правы, но она является комплексным устройством, и главным ее компонентом выступает как раз графический проц. Он может существовать и автономно от видюхи. Об этом поговорим немного позже.

GPU: не путать с CPU

Несмотря на сходство аббревиатур, не путайте предмет нашего разговора с (Central Processor Unit). Да, они похожи, как в названии, так и в функциях. Последний тоже может воспроизводить графику, правда, слабее в этом деле. Все же это абсолютно разные устройства.

Они отличаются архитектурой. CPU является многоцелевым девайсом, который отвечает за все процессы в компьютере. Для этого ему хватает нескольких , с помощью которых он последовательно обрабатывает одну задачу за другой.

В свою очередь, GPU изначально разработан как специализированное устройство, предназначенное для выполнение графического рендеринга, с высокой скоростью обрабатывающее текстуры и сложные изображения. Для таких целей его оснастили многопоточной структурой и множеством ядер, чтобы он работал с большими массивами информации единовременно, а не последовательно.

В виду этого преимущества, лидеры среди производителей видеоадаптеров выпустили модели, в которых графические процессоры могут стать усовершенствованной заменой центральным. У бренда nVidia такой девайс называется GTX 10xx, а у его главного конкурента AMD - RX.

Виды графических процев

Чтобы вы могли ориентироваться на рынке GPU, предлагаю ознакомиться с видами этого устройства:

  • Дискретный. Входит в состав видеоадаптера. Подключается к системной плате через специально отведенный разъем (чаще всего PCIe или AGP). Имеет собственную оперативную память. Вы требовательный геймер или работаете со сложными графическими редакторами? Берите дискретную модель.

  • Интегрированный (IGP). Раньше впаивался в материнскую плату, теперь встраивается в центральный процессор. Изначально не годился для воспроизведения реалистичных игр и тяжелых графических программ, однако новые модели справляются с этими задачами. Все же учтите, что такие чипы несколько медлительнее, потому что не имеют личной оперативки и обращаются к памяти CPU.

  • Гибридная графическая обработка. Это 2 в 1, то есть когда в компьютере устанавливается и первый вид, и второй вид GPU. В зависимости от выполняемых задач, включается в работу или один, или другой. Однако бывают ноутбуки, в которых могут работать сразу 2 вида устройств.
  • Внешний тип. Как несложно догадаться, это графический процессор, расположенный снаружи компа. Чаще всего такую модель выбирают обладатели ноутбуков, которым сложно впихнуть в свое железо дискретную видеокарту, но очень хочется получить достойную графику.

Как выбирать?

Когда будете подбирать для себя видеоадаптер, обращайте внимание на такие характеристики:

  • Тактовая частота. Указывается в мегагерцах. Чем цифра выше, тем больше информации за секунду сможет обработать устройство. Правда, не только она влияет на его результативность. Архитектура также имеет значение.
  • Число вычислительных блоков. Они призваны обрабатывать задачи - шейдеры, отвечающие за вершинные, геометрические, пиксельные и универсальные расчеты.

  • Быстрота заполнения (филлрейт). Этот параметр может рассказать, с какой скоростью GPU может вырисовывать картинку. Он делится на 2 вида: пиксельный (pixel fill rate) и текстурный (texel rate). На первый влияет количество ROP-блоков в структуре проца, а на второй - текстурных (TMU).

Обычно в последних моделях GPU первых блоков меньше. Они записывают рассчитанные видеоадаптером пиксели в буферы и смешивают их, что по-умному называется блендинг. TMU выполняют выборку и фильтрацию текстур и другой информации, требуемой для выстраивания сцены и общих расчетов.

Геометрические блоки

Раньше на них никто не обращал внимания, потому что виртуальные игры имели простую геометрию. Этот параметр стали учитывать после появления в DirectX 11 тесселяции. Не понимаете, о чем я? Давайте по порядку.

Является средой (набором инструментов) для написания игр. Чтобы вы ориентировались в теме, скажу, что последняя версия продукта - 12-я, которая вышла в 2015 году.

Тесселяция - это деление плоскости на части для заполнения их новой информацией, что повышает реализм игры.

Таким образом, если вы захотите с головой окунуться в атмосферу Metro 2033, Crysis 2, HAWX 2 и т. п., при выборе GPU учитывайте количество геометрических блоков.

Память

Собрались брать новую видеокарту? Значит, вам нужно учесть еще несколько характеристик оперативки:

  • Объем. Важность RAM несколько переоценена, так как не только ее емкость, но также тип и свойства влияют на производительность карты.
  • Ширина шины. Это более весомый параметр. Чем шире, тем больше информации сможет отправить память чипу и наоборот за определенное время. Для воспроизведения игр необходимо минимум 128 бит.
  • Частота. Тоже определяет пропускную способность оперативки. Но учтите, что память с 256-битной шиной и частотой 800(3200) МГц работает продуктивнее, чем со 128 битами на 1000(4000) МГц.
  • Тип. Не буду грузить вас лишней информацией, а лишь назову оптимальные на сегодня типы - это GDDR 3 и 5 поколения.

Немного об охлаждении

Задумали установить мощный чип? Сразу позаботьтесь о дополнительном охлаждении в виде радиаторов, кулеров, а если собираетесь регулярно выжимать из девайса все соки, можно подумать и над жидкостной системой.

В целом, следите за температурой видюхи. Помочь в этом вам может программа GPU-Z и т. п., которая помимо этого параметра расскажет все об устройстве.

Конечно, современные видеокарты оснащаются защитной системой, которая вроде бы не допускает перегрева. Для разных моделей предельная температура отличается. В среднем, она составляет 105 °C, после чего адаптер сам выключается. Но лучше поберечь дорогой девайс и обеспечить вспомогательное охлаждение.