GPU в компьютере - что это такое, разновидности. GPU-Z для получения информации о видеокарте

Вы решили купить компьютер. Ходите вдоль торговых рядов, смотрите на ценники, знакомитесь с характеристиками. И возникает вопрос: что такое GPU? Часто вы наблюдаете это сочетание букв, но смысла не видите. Попробуем объяснить.

GPU - что это, и в чем отличие от CPU

GPU расшифровывается как "graphics processing unit", или графический процессор. Он являет собой отдельное устройство игровой приставки, компьютера, фотоаппарата. Отвечает за рендеринг графики, выполняет его. Справляется с этой задачей GPU замечательно, обусловлено это специально предназначенной для данных целей конвейерной архитектурой. Современные GPU куда лучше обрабатывают графику, чем аналогичные им классические центральные процессоры (ЦПУ).

В настоящее время ГПУ применяется в качестве акселератора 3D-графики, но в исключительных случаях он может быть использован для вычислений. Отличает ГПУ от ЦПУ следующее:

  • архитектура: она по максимуму нацелена на высокую скорость расчета сложных графических объектов и текстур;
  • сравнительно низкий набор команд.

Колоссальная вычислительная мощность объясняется именно особенностями архитектуры. Наряду с современными CPU, содержащими несколько ядер (2/4/8, что уже считалось прорывом), GPU изначально разрабатывался как многоядерная структура. Число ядер тут исчисляется сотнями!

Различие архитектуры объясняет и разницу в принципе работы. Если архитектура CPU рассчитана на последовательную обработку данных, то GPU изначально предназначен для работы с компьютерной графикой, поэтому рассчитан на массивные, но параллельные вычисления.

Каждая из этих архитектур имеет свои преимущества. CPU гораздо лучше выполняет последовательные задачи. Для огромных объемов обрабатываемой информации преимущество имеет GPU. Главное условие – в задаче должен соблюдаться параллелизм.

Вы теперь знаете многое о GPU, что такое GPU, и можете даже рассказать друзьям.

Если вы можете похвастаться компьютером с хорошей видеокартой, то можно начать добывать биткоины прямо сейчас. Однако для того, чтобы увеличить прибыль и заниматься этим профессионально, мы рекомендуем приобрести несколько видеокарт (оптимально от 4 до 6) и собрать собственную .

За счёт установки нескольких видеоадаптеров вы сможете повысить уровень производительности компьютера, который будет считать намного быстрее т.к. именно видеокарты дают всю вычислительную мощность для майнинга (для большинства алгоритмов).

Отметим, что с учетом текущих цен на видеокарты в 2019 году стал выгоднее облачный GPU майнинг, который выгоднее покупки собственного оборудования, намного более гибкий в размере инвестиций и не требует обслуживания своих ферм. Мы сделали с рейтингом лучших сервисов по итогам нескольких последних лет.

Навигация по материалу:

Сколько можно заработать на одной видеокарте?

Имея некоторое представление о том, как , следует знать, какие видеоадаптеры подходят лучше всего для майнинга. Отличным вариантом станет AMD Radeon пятой серии и выше. Так как от производительности данного девайса будет зависеть итоговая сумма вашего заработка, рекомендуется обзавестись флагманами.

Есть мнение, что при использовании видеокарт производства AMD скорость вычисления немного выше, чем у аналогов под брендом nVidia. Но это сильно зависит от алгоритма вычислений на котором строится каждая конкретная криптовалюта. Соответственно, чем больше вычислений в секунду, тем существеннее ваш заработок.

Важно помнить, что если вы решите майнить, используя одну, даже самую топовую видеокарту, её производительности будет недостаточно. Вы потратите очень много времени, прежде чем добудете 1 BTC. Например, если будет задействован GPU Radeon HD 7970, ваш результат будет около 555 MH/s, а дневная добыча — на уровне 0,0031 BTC, или 80 центов. При этом стоит учитывать, что во время майнинга потребление электроэнергии возрастает. Поэтому такой способ добычи криптовалюты считается нецелесообразным.

Какую видеокарту выбрать — производительность на разных алгоритмах

Зная, как заработать на видеокарте, будущий майнер оказывается перед непростым выбором между тем или иным видеоадаптером, который необходимо приобрести для самодельной фермы.

GTX 1080

GTX 1050

Приведённые в таблице модели окупаются намного быстрее своих аналогов и являются, судя по отзывам специалистов, наилучшим выбором для майнинга в 2019 году. Например, GTX 1070/1060 и RX 480/470 окупятся за 5-6 месяцев. Также не стоит забывать, что добывать криптовалюту с каждым днем становится всё сложнее, однако её стоимость постоянно растёт, что позволяет удерживать необходимый баланс, привлекая к майнингу новых людей.

Наиболее популярными для майнинга криптовалюты являются решения от лагеря красных — AMD. Связано это с конструктивными особенностями видеокарт, поэтому пользователи в первую очередь скупают такие решения, как Radeon RX 470 и выше. Тем не менее сегодня отставание по мощности для майнинга видеоадаптеров от Nvidia не колоссальное, поэтому такие популярные модели, как GTX 1060 и выше разлетаются как горячие пирожки.

Кстати, теория заговора о повышения интереса к криптовалюте со стороны производителей видеокарт имеет место быть, поскольку компания Nvidia готовит специализированные видеокарты для майнинга под названиями P104-100 и P106-100. Отличаются эти решения от классических видеоадаптеров тем, что ни не имеют видеовыходов, оснащены слабым охлаждением и обладают ограниченной гарантией. Именно поэтому обычному пользователю все же рентабельнее приобрести топовое решение в лице той же GTX 1070, ведь ее всегда можно будет продать геймеру, тем самым частично отбив ее первоначальную стоимость.

Расчет окупаемости видеокарт

GPU: Окупаемость: Без учета э/энергии:
Radeon RX 470 183 дня. (16% в мес) 145 дней. (20.6% в мес)
Radeon RX 480 193 дня (15.5% в мес) 156 дней (19.2% в мес)
Geforce GTX 1060 154 дня (19.4% в мес) 130 дней (23% в мес)
Geforce GTX 1070 185 дней (16.2% в мес) 162 дня (18.5% в мес)
Radeon Fury X 278 дней (10.7% в мес) 213 дней (14% в мес)

Как вы могли заметить из таблицы выше, самыми выгодными для майнинга на данный момент являются видеокарты Nvidia Geforce GTX 1060 3gb и Radeon RX 470 4gb. Стоит отметить, что это справедливо только на данный момент и на самом выгодном сейчас алгоритме Equihash, что будет дальше, какие алгоритмы появятся в будущем и как на них поведут себя данные видеокарты не известно.

Если вас интересует доходность майнинга именно сейчас, то вы можете выбирать Geforce GTX 1060 если вы поклонник Nvidia или Radeon RX 470 — если предпочитаете GPU от AMD. Для расчета прибыльности майнинга используются (данные в них могут сильно различаться даже в течении одного дня, поскольку курс может резко меняться).

Разгон видеокарт для повышения хешрейта при майнинге

Повышение производительности GPU карт для майнинга это неотъемлемая часть настройки фермы. Разгон может производиться с помощью специальных программ работающих из операционной системы, для этого мы рекомендуем MSI Afterburner. Также может быть достигнут за счет перепрошивки биоса.

Подробно , там же присутствуют и видео инструкции для карт AMD и Nvidia (принцип их разгона немного различается).

Стоит отметить, что гарантия на эти видеокарты составляет всего 3 месяца . Запуск видеокарт для майнинга на Nvidia GTX ожидается в середине июня, но у разных поставщиков сроки могут меняться. Заявлено, что на графическом чипе P104-100 производительность/ватт увеличилась на 30% в сравнении с GTX 1060 3 Гб. А чип P106-100 в сравнении с той же видеокартой дает прирост 10%. Обе видеокарты выпускаются без видеоинтерфейсов.

Видеокарта Nvidia P104-100 использует тот же самый дизайн что и Nvidia GeForce GTX 1080. Но предоставляет гораздо больше производительности на 1 ватт потребленной электроэнергии, так как адаптер специально доработан для майнинга на Nvidia GTX. Карты от разных производителей поставляются с разными частотами чипов, в то время как эта базовая модель работает на базовой частоте 1607 МГц. Разгонная частота составляет 1733 МГц с пропускной способностью памяти 10 Гб/с GDDR5X при ширине шины в 256 бит.

Питание подается при помощи одного 8-контактного разъема, а энергопотребление примерно составляет 180 Вт. Базовая модель графического адаптера планируется к отгрузке по цене 350 долларов США, а вот модель от производителя Inno3D заявлена по цене в 370$ – Inno3D P6D-N104-1SDN P104-100 Twin X2 8GB GDDR5X. Эти цены значительно меньше, чем цены на их игровые аналоги (499$).

Заявленная производительность майнинга на Nvidia GTX P104-100 будет приблизительно около 60 МХ/с, но эта производительность будет достигнута только после обновления BIOS адаптера на новую прошивку.

Модель Nvidia P106-100 использует ту же конструкцию, что и Nvidia GeForce GTX 1060. Это дало возможность настроить графический адаптер под майнинг на Nvidia GTX значительно более эффективно. Адаптер работает на базовой частоте в 1506 МГц, турбо частота при этом составляет 1708 МГц, а пропускная способность памяти 8 Гб/с GDDR5 при шине 192 бита. Питание будет передаваться через 6-контактный разъем, а энергопотребление составит 120 Вт.

Цена базовой модели на рынке США составит 200$, что на 49$ дешевле игрового аналога GeForce GTX 1060 6 Гб. Вот цена конкретного адаптера Inno3D (N5G-N106-4SDN P106-100 Twin X2 6GB GDDR5) – 235$.

GPU-Z - бесплатная программа для получения сведений о технических характеристиках видеоадаптера (видеокарты, графического процессора) в операционной системе Windows. Программа GPU-Z выводит полную информацию о видеокарте, установленной на компьютере.

Видеоадаптером (графический ускоритель) может быть видеокартой, видеоконтроллером, встроенным (интегрированным) видеомодулем. Программа TechPowerUp GPU-Z определит модель графического устройства, покажет его характеристики, которые пользователь может использовать для диагностики или разгона видеоадаптера (оверклокинга).

Основные возможности программы GPU-Z:

  • поддержка видеокарт NVIDIA, AMD (ATI), Intel
  • всесторонняя информация о видеокарте, графическом процессоре, частоте, типе памяти и т. д.
  • вывод характеристик датчиков в реальном времени

Для загрузки программы GPU-Z перейдите на официальный сайт компании TechPowerUp, производителя утилиты.

gpu z скачать

Программа не требует установки на компьютер, GPU-Z можно просто запустить на компьютере, используя утилиту качестве portable (переносного) приложения. При необходимости, предусмотрена возможность установки программы на компьютер.

После запуска утилиты, в окне «Install GPU-Z?» выберите пункт «No» для того, чтобы использовать программу, без установки на компьютер.

Параметры видеокарты в GPU-Z

Программа GPU-Z имеет три вкладки: «Graphic Card», «Sensors», «Validation». В правом верхнем углу находятся две кнопки: кнопка для создания снимков окна программы (скриншотов), и кнопка для входа в настройки утилиты.

После запуска утилиты откроется окно программы TechPowerUp GPU-Z во вкладке «Graphics Card». Здесь подробно представлена вся информация о видеоадаптере компьютера.

На моем компьютере установлена видеокарта NVIDIA GeForce GTX 750 Ti. В окне программы отображены подробные характеристики видеокарты: имя, тип графического процессора, его ревизия, по какому технологическому процессу он был изготовлен, тип и частота памяти, ширина шины, идентификатор устройства (Device ID), частота процессора, частота по умолчанию, и другие параметры (версия BIOS, поддержка версии DirectX и т. д.).

Для того, чтобы получить подробную информацию в GPU-Z на русском языке, подведите курсор мыши к значению, выводимому программой. После этого, откроется окно с подсказкой (объяснением данного параметра).

В нижней части окна программы отображены технологии: OpenCL, CUDA, PhysX, DirectCompute 5.0, которые поддерживаются данной видеокартой.

После нажатия на кнопку «Lookup», произойдет открытие специальной веб-страницы на сайте TechPowerUp с подробными характеристиками данной видеокарты.

Если на вашем компьютере есть несколько графических ускорителей, то в нижней части окна программы GPU-Z, можно переключиться между видеокартами для получения информации о другом видеоадаптере.

Например, на моем компьютере есть интегрированное видеоядро (Intel HD Graphics 4400), встроенное в материнскую плату (Gigabyte).

В этом окне представлена полная информация об интегрированной графике Intel и поддерживаемых технологиях.

Во вкладке «Sensors» отображается информация, получаемая с датчиков в режиме реального времени: частота графического процессора, частота видеопамяти, температура графического процессора, скорость вращения кулера (вентилятора), текущая загрузка видеопамяти и т. д.

Во вкладке «Validation» можно зарегистрироваться для получения идентификатора.

Настройки GPU-Z

В окне «GPU-Z Setting», во вкладке «General» можно выбрать язык, работающий в подсказках, включить запуск GPU-Z вместе со стартом Windows, выбрать вкладку, в которой будет открываться программа, проверить обновления, запустить установку программы на компьютер.

Во вкладке «Setting» можно изменить количество активных датчиков (включить или отключить), показания которых учитывает программа ГПУ Зет.

Вкладка «ASIC Quality» выдает информацию о качестве (общей мощности) видеокарты, по сравнению с аналогичными видеоадаптерами по базе данных проверки в GPU-Z, приводятся параметры интерпретации этих сведений.

Выводы статьи

Бесплатная программа GPU-Z служит для получения справочной информации о видеоадаптере (видеокарте), установленном на компьютере. Программа GPU-Z диагностирует видеокарту для получения необходимых сведений, которые нужны как обычному пользователю, так и оверклокеру для разгона видеокарты.

Процессоры и графические ускорители очень похожи, они оба сделаны из сотен миллионов транзисторов и могут обрабатывать тысячи операций за секунду. Но чем именно отличаются эти два важных компонента любого домашнего компьютера?

В данной статье мы попытаемся очень просто и доступно рассказать, в чем отличие CPU от GPU. Но сначала нужно рассмотреть два этих процессора по отдельности.

CPU (Central Processing Unit или же Центральное Процессорное Устройство) часто называют "мозгом" компьютера. Внутри центрального процессора расположено около миллиона транзисторов, с помощью которых производятся различные вычисления. В домашних компьютерах обычно устанавливаются процессоры, имеющие от 1 до 4 ядер с тактовой частотой приблизительно от 1 ГГц до 4 ГГц.

Процессор является мощным, потому что может делать все. Компьютер способен выполнить какую-либо задачу, так как процессор способен выполнить эту задачу. Программистам удалось достичь этого благодаря широким наборам инструкций и огромным спискам функций, совместно используемых в современных центральных процессорах.

Что такое GPU?

GPU (Graphics Processing Unit или же Графическое Процессорное Устройство) представляет собой специализированный тип микропроцессора, оптимизированный для очень специфических вычислений и отображения графики. Графический процессор работает на более низкой тактовой частоте в отличие от процессора, но имеет намного больше процессорных ядер.

Также можно сказать, что GPU - это специализированный CPU, сделанный для одной конкретной цели - рендеринг видео. Во время рендеринга графический процессор огромное количество раз выполняет несложные математические вычисления. GPU имеет тысячи ядер, которые будут работать одновременно. Хоть и каждое ядро графического процессора медленнее ядра центрального процессора, это все равно эффективнее для выполнения простых математических вычислений, необходимых для отображения графики. Этот массивный параллелизм является тем, что делает GPU способным к рендерингу сложной 3D графики, требуемой современными играми.

Отличие CPU и GPU

Графический процессор может выполнить лишь часть операций, которые может выполнить центральный процессор, но он делает это с невероятной скоростью. GPU будет использовать сотни ядер, чтобы выполнить срочные вычисления для тысяч пикселей и отобразить при этом сложную 3D графику. Но для достижения высоких скоростей GPU должен выполнять однообразные операции.

Возьмем, например, Nvidia GTX 1080. Данная видеокарта имеет 2560 шейдерных ядер. Благодаря этим ядрам Nvidia GTX 1080 может выполнить 2560 инструкций или операций за один такт. Если вы захотите сделать картинку на 1% ярче, то GPU с этим справится без особого труда. А вот четырехъядерный центральный процессор Intel Core i5 сможет выполнить только 4 инструкции за один такт.

Тем не менее, центральные процессоры более гибкие, чем графические. Центральные процессоры имеют больший набор инструкций, поэтому они могут выполнять более широкий диапазон функций. Также CPU работают на более высоких максимальных тактовых частотах и имеют возможность управлять вводом и выводом компонентов компьютера. Например, центральный процессор может интегрироваться с виртуальной памятью, которая необходима для запуска современной операционной системы. Это как раз то, что графический процессор выполнить не сможет.

Вычисления на GPU

Даже несмотря на то, что графические процессоры предназначены для рендеринга, они способны на большее. Обработка графики - это только вид повторяющихся параллельных вычислений. Другие задачи, такие как майнинг Bitcoin и взломы паролей полагаются на одни и те же виды массивных наборов данных и простых математических вычислений. Именно поэтому некоторые пользователи используют видеокарты для не графических операций. Такое явление называется GPU Computation или же вычисления на GPU.

Выводы

В данной статье мы провели сравнение CPU и GPU. Думаю, всем стало понятно, что GPU и CPU имеют схожие цели, но оптимизированы для разных вычислений. Пишите свое мнение в комментариях, я постараюсь ответить.

В материнской плате расположено много важных составляющих частей компьютера, которые носят свои уникальные названия: CPU, GPU, HDD, SSD, ОЗУ и так далее. Каждая из этих аббревиатур имеет свою расшифровку, но в данный момент имеет значение, что же это - GPU?

Есть схожее название с этим термином - это CPU. Многие неопытные пользователи путают эти названия, что неверно. Для начала стоит пояснить, что CPU - это центральный процессор, который является мозгом всей системы. Расшифровывается эта аббревиатура так - Central Processor Unit.

Однако стоит знать, что GPU - это тоже процессор, только графического решения. В его задачу входит обработка и вывод на экран изображения. Полное название аббревиатуры выглядит таким образом - Graphic Processing Unit.

Благодаря этим пояснениям можно понять, что GPU - это не центральный процессор, который обрабатывает только данные графического типа. Он подчиняется протоколам центрального процессора и, в отличие от него, имеет свое логическое устройство. Так же, как и у главного процессора, у графического есть ядра, только их не десятки, а тысячи. Такое большое количество ядер необходимо для получения и обработки данных, связанных с прорисовкой и временными многочисленными задачами.

Теперь, когда уже имеется общее представление о том, что GPU - это графический процессор и его задачей является обработка графических данных, можно перейти к перечислению.

На данный момент есть два вида встроенных графических процессоров - это интегрированные в материнскую плату и встроенные в процессор.

В первом варианте чип графического процессора распаян прямо на текстолите материнской платы, и мало кто знает, что это GPU. Выглядит он как обычный чип черного цвета, на котором есть наименование марки, порядковый номер и комбинация цифр, которая указывает на некоторые параметры. Так как такие графические решения не имеют собственного объема памяти, они заимствуют данный параметр у оперативной памяти, используя ее объем.

В случае со встроенным в процессор чипом его сложно увидеть, получится это только при разборе самого центрального процессора. Практически во всех процессорах нового поколения имеется дополнительное ядро, которое именуется графическим. Цена процессора при этом вырастает не намного, зато избавляет от нужды в дискретной видеокарте.

Встроенные графические процессоры позволяют сэкономить на энергопотреблении на несколько десятков процентов, что положительно сказывается на теплоотдаче. Однако есть и значительные минусы, и один из них - это низкая производительность. Такая экономная графика хорошо подходит для работы с офисными программами и приложениями, не требующими больших мощностей.

GPU в компьютере - что это такое и как его определить? Если ранее было представлено два вида графических процессоров в интегрированном виде, то далее можно рассмотреть вариант дискретной видеокарты. Исходя из этого можно понять, что GPU - это такое обозначение лишь процессора, одной из деталей которого является видеокарта. Однако эта деталь является самой важной. Еще на плате видеокарты расположены чипы памяти, конденсаторы, разъем или разъемы для питания, защитный кожух, радиатор и кулер.

Различие интегрированной и дискретной видеокарты в том, что вторая гораздо мощнее и производительнее, чем встроенный вариант. Во-первых, имеется свой объем памяти, что напрямую влияет на скорость отрисовки объектов. Во-вторых, в ее параметры входит шина расширения, битность которой позволяет увеличить пропускную способность для передачи данных.

Такие графические адаптеры требуют дополнительного питания, чтобы просто запуститься и выдавать качественное изображение. Несмотря на всю мощь, есть и офисные варианты дискретных видеокарт, которые мало чем отличаются от интегрированных собратьев. Игровые варианты более мощные по строению и потенциалу, но потребляют гораздо больше энергии.

Температурный режим

Для лучшего функционирования нужно знать, что такое GPU в компьютере и его температура. Как охладить встроенный и дискретный GPU? Для охлаждения интегрированного графического процессора достаточно разместить вентиляторы в корпусе, а у дискретных вариантов есть собственная система охлаждения. В зависимости от того, сколько вентиляторов находится над чипом, будет ясно, как хорошо охлаждается чип.

Система охлаждения видеокарты достаточно проста - чип с помощью нанесенной на него термопасты соприкасается с трубками теплоотвода, они переходят к радиатору, который охлаждается с помощью кулера.

Рабочая температура чипа составляет не более 70 градусов, дальнейшее повышение температуры можно считать перегревом. Чтобы не допустить перегрева видеокарты, достаточно своевременно прочищать от пыли видеокарту, менять при этом термопасту. Для того чтобы узнать нынешнее состояние температуры в видеокарте, достаточно запустить соответствующие программы, например, AIDA 64. Там можно увидеть температуру не только графического адаптера, но и всей системы.