Диспетчер задач Windows 10 содержит подробные инструменты мониторинга графического процессора (GPU ). Вы можете просматривать использование каждого приложения и общесистемного графического процессора, а Microsoft обещает, что показатели диспетчера задач будут более точными, чем показатели сторонних утилит.
Как это работает
Эти функции графического процессора были добавлены в обновлении Fall Creators для Windows 10 , также известном как Windows 10 версия 1709 . Если вы используете Windows 7, 8 или более старую версию Windows 10, вы не увидите эти инструменты в своем диспетчере задач.
Windows использует более новые функции в Windows Display Driver Model, чтобы извлекать информацию непосредственно из графического процессора (VidSCH) и менеджера видеопамяти (VidMm) в графическом ядре WDDM, которые отвечают за фактическое распределение ресурсов. Он показывает очень точные данные независимо от того, какие приложения API используют для доступа к GPU-Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle или чему-либо еще.
Именно поэтому в диспетчере задач отображаются только системы с совместимыми с WDDM 2.0 графическими процессорами . Если вы этого не видите, графический процессор вашей системы, вероятно, использует более старый тип драйвера.
Вы можете проверить, какая версия WDDM используется вашим драйвером GPU , нажав кнопку Windows+R, набрав в поле «dxdiag », а затем нажмите «Enter », чтобы открыть инструмент «Средство диагностики DirectX ». Перейдите на вкладку «Экран » и посмотрите справа от «Модель » в разделе «Драйверы ». Если вы видите здесь драйвер WDDM 2.x, ваша система совместима. Если вы видите здесь драйвер WDDM 1.x, ваш GPU несовместим.
Как просмотреть производительность графического процессора
Эта информация доступна в диспетчере задач , хотя по умолчанию она скрыта. Чтобы открыть ее, откройте Диспетчер задач , щелкнув правой кнопкой мыши на любом пустом месте на панели задач и выбрав «Диспетчер задач » или нажав Ctrl+Shift+Esc на клавиатуре.
Нажмите кнопку «Подробнее » в нижней части окна «Диспетчер задач », если вы видите стандартный простой вид.
Если GPU не отображается в диспетчере задач , в полноэкранном режиме на вкладке «Процессы » щелкните правой кнопкой мыши любой заголовок столбца, а затем включите опцию «Графический процессор ». Это добавит столбец графического процессора , который позволяет увидеть процент ресурсов графического процессора , используемых каждым приложением.
Вы также можете включить опцию «Ядро графического процессора », чтобы увидеть, какой графический процессор использует приложение.
Общее использование GPU всех приложений в вашей системе отображается в верхней части столбца Графического процессора . Щелкните столбец GPU , чтобы отсортировать список и посмотреть, какие приложения используют ваш GPU больше всего на данный момент.
Число в столбце Графический процессор - это самое высокое использование, которое приложение использует для всех движков. Так, например, если приложение использует 50% 3D-движка GPU и 2% декодирования видео движка GPU, вы просто увидите, что в столбце GPU отображается число 50%.
В столбце «Ядро графического процессора » отображается каждое приложение. Это показывает вам, какой физический GPU и какой движок использует приложение, например, использует ли он 3D-движок или механизм декодирования видео. Вы можете определить, какой графический процессор соответствует определенному показателю, проверив вкладку «Производительность », о которой мы поговорим в следующем разделе.
Как просмотреть использование видеопамяти приложения
Если вам интересно, сколько видеопамяти используется приложением, вам нужно перейти на вкладку «Подробности » в диспетчере задач. На вкладке «Подробности » щелкните правой кнопкой мыши любой заголовок столбца и выберите «Выбрать столбцы ». Прокрутите вниз и включите колонки «Графический процессор », «Ядро графического процессора », « » и « ». Первые два доступны также на вкладке «Процессы », но последние две опции памяти доступны только на панели «Подробности ».
Столбец «Выделенная память графического процессора » показывает, сколько памяти приложение использует на вашем GPU . Если на вашем ПК установлена дискретная видеокарта NVIDIA или AMD, то это часть его VRAM, то есть сколько физической памяти на вашей видеокарте использует приложение. Если у вас встроенный графический процессор , часть вашей обычной системной памяти зарезервирована исключительно для вашего графического оборудования. Это показывает, какая часть зарезервированной памяти используется приложением.
Windows также позволяет приложениям хранить некоторые данные в обычной системной памяти DRAM. Столбец «Общая память графического процессора » показывает, сколько памяти приложение использует в настоящее время для видеоустройств из обычной системной ОЗУ компьютера.
Вы можете щелкнуть любой из столбцов для сортировки по ним и посмотреть, какое приложение использует больше всего ресурсов. Например, чтобы просмотреть приложения, использующие наибольшую видеопамять на вашем графическом процессоре, щелкните столбец «Выделенная память графического процессора ».
Как отследить использование общего ресурса GPU
Чтобы отслеживать общую статистику использования ресурсов GPU , перейдите на вкладку «Производительность » и посмотрите на «Графический процессор » внизу на боковой панели. Если на вашем компьютере несколько графических процессоров, здесь вы увидите несколько вариантов GPU .
Если у вас несколько связанных графических процессоров - используя такую функцию, как NVIDIA SLI или AMD Crossfire, вы увидите их, идентифицированные «#» в их имени.
Windows отображает использование GPU в реальном времени. По умолчанию диспетчер задач пытается отобразить самые интересные четыре движка в соответствии с тем, что происходит в вашей системе. Например, вы увидите разные графики в зависимости от того, играете ли вы в 3D-игры или кодируете видео. Однако вы можете щелкнуть любое из имен над графиками и выбрать любой из других доступных движков.
Название вашего GPU также отображается на боковой панели и в верхней части этого окна, что позволяет легко проверить, какое графическое оборудование установлено на вашем ПК.
Вы также увидите графики использования выделенной и общей памяти GPU . Использование общей памяти GPU относится к тому, какая часть общей памяти системы используется для задач GPU . Эта память может использоваться как для обычных системных задач, так и для видеозаписей.
В нижней части окна вы увидите информацию, такую как номер версии установленного видеодрайвера, дату разработки и физическое местоположение GPU в вашей системе.
Если вы хотите просмотреть эту информацию в более маленьком окне, которое проще оставить на экране, дважды щелкните где-нибудь внутри экрана графического процессора или щелкните правой кнопкой мыши в любом месте внутри него и выберите параметр «Графическая сводка ». Вы можете развернуть окно, дважды щелкнув на панели или щелкнув правой кнопкой мыши в нем и сняв флажок «Графическая сводка ».
Вы также можете щелкнуть правой кнопкой мыши по графику и выбрать «Изменить график »> «Одно ядро », чтобы просмотреть только один график движка GPU .
Чтобы это окно постоянно отображалось на вашем экране, нажмите «Параметры »> «Поверх остальных окон ».
Дважды щелкните внутри панели GPU еще раз, и у вас будет минимальное окно, которое вы можете расположить в любом месте на экране.
Получил возможность отслеживать данные производительности графического процессора (GPU). Пользователи могут анализировать данную информацию, чтобы понять, как используются ресурсы видеокарты, которые все чаще применяются в вычислениях.
Это означает, что все установленные в ПК графические процессоры будут показываться на вкладке “Производительность”. Кроме того, на вкладке “Процессы” вы можете посмотреть, какие процессы получают доступ к графическому процессору, а данные использования памяти GPU размещаются на вкладке “Подробности”.
Как проверить поддерживается ли функция просмотра производительности графического процессора
Хотя Диспетчер задач не предъявляет особые требования для мониторинга процессора, памяти, диска или сетевых адаптеров, ситуация с графическими процессора выглядит немного иначе.
В Windows 10 информация о графическом процессоре доступна в Диспетчере задач только при использовании архитектуры Windows Display Driver Model (WDDM). WDDM - это архитектура графических драйверов для видеокарты, которая позволяет выполнять рендеринг рабочего стола и приложений на экране.
WDDM предусматривает наличие графического ядра, которое включает планировщик (VidSch) и менеджер видеопамяти (VidMm). Именно эти модули отвечают за принятие решений при использовании ресурсов графического процессора.
Диспетчер задач получает информацию об использовании ресурсов GPU напрямую от планировщика и менеджера видеопамяти графического ядра. Причем, это справедливо как в случае с интегрированными, так и в случае с выделенными графическими процессорами. Для корректной работы функции требуется WDDM версии 2.0 или выше.
Чтобы проверить, поддерживают ли ваше устройства просмотр данных GPU в Диспетчере задач, выполните следующие действия:
- Используйте сочетание клавиш Windows + R , чтобы открыть команду “Выполнить”.
- Введите команду dxdiag.exe , чтобы открыть "Средство диагностики DirectX" и нажмите клавишу Ввод (Enter).
- Перейдите на вкладку “Экран”.
- В правой секции “Драйверы” посмотрите значение модели драйвера.
Если используется модель WDDM 2.0 или выше, то Диспетчер задач будет выводить данные об использовании графических процессоров на вкладке “Производительность”.
Как отслеживать производительность графического процессора с помощью Диспетчера задач
Чтобы отслеживать данные производительности графического процессора с помощью Диспетчера задач, просто щелкните правой кнопкой мыши на панели задач и выберите пункт “Диспетчер задач”. Если активен компактный режим просмотра, нажмите кнопку “Подробнее”, а затем перейдите на вкладку “Производительность”.
Совет : для быстрого запуска Диспетчера задач можно использовать сочетание клавиш Ctrl + Shift + Esc
Вкладка Производительность
Если ваш компьютер поддерживает WDDM версии 2.0 или более поздней версии, то на левой панели вкладки Производительность будет отображаться ваш графический процессор. В случае, если в системе установлено несколько графических процессоров, каждый из них будет показываться с использованием номера, соответствующего его физическому местоположению, например, Графический процессор 0, Графический процессор 1, Графический процессор 2 и т. д.
Windows 10 поддерживает связки нескольких графических процессоров с использованием режимов Nvidia SLI и AMD Crossfire. Когда одна из этих конфигураций обнаружена в системе, вкладка “Производительность” будет указывать каждую связь с использованием номера (например, Связь 0, Связь 1 и т. д.). Пользователь сможет видеть и проверять каждый графический процессор в пределах связки.
На странице определенного графического процессора вы найдете обобщенные данные о производительности, которые в общем случае разделены на два раздела.
Раздел содержит текущую информацию о движках самого GPU, а не о отдельных его ядрах.
Диспетчер задач по умолчанию отображает четыре наиболее востребованных движка GPU, которые по умолчанию включают 3D, копирование, декодирование видео и обработку видео, но вы можете изменить эти представления, щелкнув название и выбрав другой движок.
Пользователь может даже изменить вид графика на один движок, щелкнув правой кнопкой мыши в любом месте раздела и выбрав опцию "Изменить график > Одно ядро".
Ниже графиков движков расположился блок данных о потреблении видеопамяти.
Диспетчер задач показывает два типа видеопамяти: общую и выделенную.
Выделенная память - это память, которая будет использоваться только графической картой. Обычно это объем VRAM на дискретных картах или объем памяти, доступный для процессора, на котором компьютер настроен на явное резервирование.
В правом нижнем углу отображается параметр “Зарезервированная аппаратно память” - этот объем памяти зарезервирован для видеодрайвера.
Объем выделенной памяти в этом разделе представляет объем памяти, активно используемый в процессах, а объем общей памяти в этом разделе представляет собой объем системной памяти, потребляемой для графических нужд.
Кроме того, в левой панели под названием графического процессоры вы увидите текущее показатель использование ресурсов GPU в процентах. Важно отметить, что диспетчер задач использует процент наиболее загруженного движка для представления общего использования.
Чтобы увидеть данные о производительности в динамике, запустите приложение, которое интенсивно использует графический процессор, например, видеоигру.
Вкладка Процессы
Вы также можете отслеживать производительность графического процессора на вкладке Процессы . В этом разделе вы найдете обобщенную сводку для определенного процесса.
Столбец “Графический процессор” показывает использование наиболее активного движка для представления общего использования ресурсов GPU конкретным процессом.
Однако, если несколько двигателей сообщают о 100-процентном использовании может возникнуть путаница. Дополнительный столбец “Ядро графического процессора” сообщает детальную информацию о загруженном данным процессом двигателе.
В заголовке столбца на вкладке “Процессы” показывается общее потребление ресурсов всех доступных в системе графических процессоров.
Если вы не видите эти столбцы, щелкните правой кнопкой мыши по заголовку любого столбца и отметьте соответствующие пункты.
Вкладка Подробности
По умолчанию вкладка не отображает информацию о графическом процессоре, но вы всегда можете щелкнуть правой кнопкой мыши по заголовку столбца, выбрать опцию “Выбрать столбцы” и включить следующие параметры:
- Ядро графического процессора
- Выделенная память графического процессора
- Общая память графического процессора
Вкладки памяти отображают общий и выделенный объемы памяти соответственно, которые используются конкретным процессом. Столбцы “Графический процессор” и “Ядро графического процессора” показывают такую же информацию, как на вкладке “Процессы”.
При использовании вкладки “Подробности” вам нужно знать, что добавление используемой памяти каждым процессом может оказаться больше, чем общая доступная память, так как общая память будет подсчитываться несколько раз. Эта информация полезна для понимания использования памяти в процессе, но вы должны использовать вкладку “Производительность”, чтобы увидеть более точную информацию об использовании графической подсистемы.
Вывод
Microsoft стремится предоставить пользователям, более точный инструмент оценки производительности графической подсистемы по сравнению со сторонними приложениями. Заметим, что работа над данной функциональностью продолжается и в ближайшее время возможны улучшения.
В 2016 году наконец сбылись надежды на полноценную смену поколений в графических процессорах, которую раньше тормозило отсутствие производственных возможностей, необходимых для того, чтобы выпустить чипы с существенно более высокой плотностью транзисторов и тактовыми частотами, чем позволял проверенный техпроцесс 28 нм. 20-нанометровая технология, на которую мы рассчитывали два года тому назад, оказалась коммерчески невыгодной для столь крупных микросхем, как дискретные GPU. Т. к. TSMC и Samsung, которые могли бы выступить подрядчиками для AMD и NVIDIA, не использовали FinFET при норме 20 нм, потенциальное увеличение производительности на ватт по сравнению с 28 нм оказалось таковым, что обе компании предпочли подождать массового внедрения 14/16-нм норм, уже с применением FinFET.
Однако годы томительного ожидания прошли, и теперь мы можем оценить, как производители GPU распорядились возможностями обновленного техпроцесса. Как в очередной раз показала практика, «нанометры» сами по себе не гарантируют высокой энергоэффективности чипа, поэтому новые архитектуры NVIDIA и AMD оказались очень непохожи по этому параметру. А дополнительную интригу внес тот факт, что компании больше не пользуются услугами одной фабрики (TSMC), как это было в прошлые годы. AMD предпочла GlobalFoundries для производства GPU линейки Polaris на базе технологии 14 нм FinFET. NVIDIA, с другой стороны, по-прежнему сотрудничает с TSMC, обладающей процессом 16 нм FinFET, в работе над всеми чипами Pascal, за исключением младшего GP107 (который выпускает Samsung). Именно линия Samsung 14 нм FinFET была в свое время лицензирована GlobalFoundries, поэтому GP107 и его соперник Polaris 11 дают нам удобную возможность сравнить инженерные достижения AMD и NVIDIA на схожей производственной базе.
Впрочем, не будем преждевременно погружаться в технические подробности. В целом предложения обеих компаний на базе GPU нового поколения выглядят следующим образом. NVIDIA создала полную линейку ускорителей архитектуры Pascal на основе трех GPU потребительского класса — GP107, GP106 и GP104. Однако место флагманского адаптера, который наверняка получит имя GeForce GTX 1080 Ti, сейчас вакантно. Кандидатом на эту позицию является карта с процессором GP102, который пока применяется только в «просьюмерском» ускорителе NVIDIA TITAN X. И наконец, главной гордостью NVIDIA стал чип GP100, который компания, по всей видимости, даже не собирается внедрять в игровые продукты и оставила для ускорителей вычислений Tesla.
Успехи AMD пока скромнее. Были выпущены два процессора семейства Polaris, продукты на основе которых относятся к нижней и средней категориям игровых видеокарт. Верхние эшелоны займут грядущие GPU семейства Vega, в которых, как ожидается, будет представлена всесторонне модернизированная архитектура GCN (в то время как Polaris с этой точки зрения не столь существенно отличается от 28-нанометровых чипов Fiji и Tonga).
⇡ NVIDIA Tesla P100 и новый TITAN X
Стараниями Дженсена Хуана, бессменного руководителя NVIDIA, компания уже позиционирует себя как производителя вычислительных процессоров широкого назначения в не меньшей степени, чем производителя игровых GPU. Сигналом того, что NVIDIA воспринимает суперкомпьютерный бизнес как никогда серьезно, стало разделение линейки графических процессоров Pascal на игровые позиции, с одной стороны, и вычислительные, с другой.
Как только техпроцесс 16 нм FinFET вошел в строй на TSMC, NVIDIA направила первые усилия на выпуск суперкомпьютерного чипа GP100, который дебютировал раньше, чем потребительские продукты линейки Pascal.
Отличительными свойствами GP100 стало беспрецедентное число транзисторов (15,3 млрд) и шейдерных ALU (3840 ядер CUDA). Кроме того, это первый ускоритель, который оснащен памятью типа HBM2 (объемом 16 Гбайт), объединенной с GPU на кремниевой подложке. GP100 используется в составе ускорителей Tesla P100, поначалу ограниченных сферой суперкомпьютеров в силу специального форм-фактора с шиной NVLINK, но впоследствии NVIDIA выпустила Tesla P100 и в стандартном формате платы расширения PCI Express.
Изначально эксперты предполагали, что P100 может появиться в игровых видеокартах. NVIDIA, видимо, не отрицала такую возможность, ведь чип обладает полноценным конвейером для рендеринга 3D-графики. Но теперь очевидно, что он вряд ли когда-либо выйдет за пределы вычислительной ниши. Для графики у NVIDIA есть родственный продукт — GP102, который обладает таким же набором шейдерных ALU, блоков наложения текстур и ROP, как и GP100, но лишен балласта в виде большого количества 64-битных ядер CUDA, не говоря уже о прочих архитектурных изменениях (меньше планировщиков, урезанный кеш L2 и пр.). В результате получилось более компактное (12 млрд транзисторов) ядро, что, в совокупности с отказом от памяти HBM2 в пользу GDDR5X, позволило NVIDIA распространить GP102 на более широкий рынок.
Сейчас GP102 зарезервирован для просьюмерского ускорителя TITAN X (не путать с GeForce GTX TITAN X на базе чипа GM200 архитектуры Maxwell), который позиционируется как плата для вычислений сниженной точности (в диапазоне от 8 до 32 бит, среди которых 8 и 16 — излюбленное NVIDIA глубинное обучение) даже в большей степени, чем для игр, хотя состоятельные геймеры могут приобрести видеокарту по цене $1 200. Действительно, в наших игровых тестах TITAN X не оправдывает свою стоимость при 15-20-процентном преимуществе перед GeForce GTX 1080, но на помощь приходит оверклокинг. Если сравнивать разогнанные GTX 1080 и TITAN X, то последний окажется уже на 34% быстрее. Впрочем, новый игровой флагман на базе GP102, скорее всего, будет иметь меньше активных вычислительных блоков либо потеряет поддержку каких-либо вычислительных функций (либо и то и другое вместе).
В целом выпустить столь массивные GPU, как GP100 и GP102, на раннем этапе освоения техпроцесса 16 нм FinFET — большое достижение для NVIDIA, особенно если принять в расчет трудности, с которыми столкнулась компания в период 40 и 28 нм.
⇡ NVIDIA GeForce GTX 1070 и 1080
Линейку игровых ускорителей GeForce 10-й серии NVIDIA развернула в привычной для себя последовательности — от самых мощных моделей к более бюджетным. GeForce GTX 1080 и другие геймерские карты архитектуры Pascal, выпущенные впоследствии, наиболее ярко показали, что NVIDIA в полной мере реализовала возможности техпроцесса 14/16 нм FinFET, чтобы сделать микросхемы более плотными и энергоэкономичными.
Кроме того, создавая Pascal, NVIDIA не только повысила производительность в различных расчетных задачах (как показал пример GP100 и GP102), но и дополнила архитектуру чипов Maxwell функциями, оптимизирующими рендеринг графики.
Кратко отметим основные нововведения:
- улучшенная компрессия цвета с соотношениями вплоть до 8:1;
- функция Simultaneous Multi-Projection геометрического движка PolyMorph Engine, позволяющая за один проход создавать вплоть до 16 проекций геометрии сцены (для VR и систем с несколькими дисплеями в конфигурации NVIDIA Surround);
- возможность прерывания (preemption) в процессе исполнения draw call (при рендеринге) и потока команд (при вычислениях), которая вместе с динамическим распределением вычислительных ресурсов GPU обеспечивает полноценную поддержку асинхронных вычислений (Async Compute) — дополнительного источника быстродействия в играх под API DirectX 12 и сниженной латентности в VR.
Последний пункт особенно интересен, т. к. чипы Maxwell технически были совместимы с асинхронными вычислениями (одновременная работа с вычислительной и графической очередью команд), но производительность в таком режиме оставляла желать лучшего. Асинхронные вычисления в Pascal работают так, как нужно, позволяя более эффективно загружать GPU в играх с отдельным потоком для расчетов физики (хотя, надо признать, для чипов NVIDIA проблема полной загрузки шейдерных ALU стоит не столь остро, как для GPU от AMD).
Процессор GP104, который используется в GTX 1070 и GTX 1080, является преемником GM204 (чипа второго эшелона в семействе Maxwell), однако NVIDIA добилась столь высоких тактовых частот, что быстродействие GTX 1080 превышает показатели GTX TITAN X (на основе более крупного GPU) в среднем на 29%, и все это в рамках более консервативного теплового пакета (180 против 250 Вт). Даже GTX 1070, «порезанный» намного сильнее, чем в свое время был «порезан» GTX 970 по сравнению с GTX 980 (кроме того, в GTX 1070 используется память GDDR5 вместо GDDR5X в GTX 1080), все еще на 5% быстрее, чем GTX TITAN X.
NVIDIA обновила контроллер дисплея в Pascal, который теперь совместим с интерфейсами DisplayPort 1.3/1.4 и HDMI 2.b, а значит — позволяет выводить по одному кабелю картинку с повышенным разрешением или частотой обновления — вплоть до 5К при 60 Гц либо 4К при 120 Гц. 10/12-битное представление цвета обеспечивает поддержку динамического диапазона (HDR) на немногочисленных пока экранах, обладающих такой возможностью. Выделенный аппаратный блок Pascal способен кодировать и декодировать видео формата HEVC (H.265) с разрешением вплоть до 4К, 10-битным цветом (12 бит при декодировании) и частотой 60 Гц.
Наконец, в Pascal ушли ограничения, свойственные прошлой версии шины SLI. Разработчики подняли частоту интерфейса и выпустили новый, двухканальный мостик .
Более подробно об этих особенностях архитектуры Pascal вы можете прочитать в нашем обзоре GeForce GTX 1080 . Однако прежде чем перейти к другим новинкам прошедшего года, стоит упомянуть, что в 10-й линейке GeForce NVIDIA впервые будет выпускать карты референсного дизайна в течение всего срока жизни соответствующих моделей. Они теперь носят название Founders Edition и продаются дороже розничной цены, рекомендованной для партнерских видеокарт. К примеру, для GTX 1070 и GTX 1080 рекомендованные цены составляют $379 и $599 (что уже выше, чем для GTX 970 и GTX 980 в период их молодости), а версии Founders Edition оценены в $449 и $699.
⇡ GeForce GTX 1050 и 1060
Чип GP106 распространил архитектуру Pascal в массовый сегмент игровых ускорителей. Функционально он ничем не отличается от старших моделей, а по количеству вычислительных блоков это половина GP104. Правда GP106, в отличие от GM206 (который был половиной GM204), использует 192-битную шину памяти. Кроме того, NVIDIA удалила разъемы SLI с платы GTX 1060 , огорчив любителей постепенного апгрейда видеоподсистемы: когда этот ускоритель исчерпает свои возможности, вторую видеокарту к нему уже не добавишь (кроме как для тех игр под DirectX 12, которые позволяют распределять нагрузку между GPU в обход драйвера).
GTX 1060 изначально оснащался 6 Гбайт GDDR5, полностью функциональным чипом GP106 и поступил в продажу по цене $249/299 (партнерские карты и Founders Edition соответственно). Но затем NVIDIA выпустила видеокарту с 3 Гбайт памяти и рекомендованной ценой $199, в которой сокращено и число вычислительных блоков. Обе видеокарты обладают привлекательным TDP 120 Вт, а по быстродействию являются аналогами GeForce GTX 970 и GTX 980.
GeForce GTX 1050 и GTX 1050 Ti принадлежат к самой нижней категории, освоенной архитектурой Pascal. Но как бы скромно они ни смотрелись на фоне старших собратьев, в бюджетной нише NVIDIA сделала наибольший шаг вперед. GTX 750/750 Ti, которые занимали ее раньше, относятся к первой итерации архитектуры Maxwell, поэтому GTX 1050/1050 Ti, в отличие от прочих ускорителей семейства Pascal, продвинулись не на одно, а на полтора поколения. Благодаря существенно более крупному GPU и памяти, работающей на повышенной частоте, GTX 1050/1050 Ti нарастили производительность по сравнению со своими предшественниками сильнее, чем какие-либо другие представители серии Pascal (разница в 90% между GTX 750 Ti и GTX 1050 Ti).
И хотя GTX 1050/1050 Ti потребляют немного больше энергии (75 против 60 Вт), они все еще укладываются в нормы мощности для плат PCI Express, лишенных разъема дополнительного питания. Младшие ускорители NVIDIA не выпускала в формате Founders Edition, а рекомендованные розничные цены составили $109 и $139.
⇡ AMD Polaris: Radeon RX 460/470/480
Ответом на Pascal со стороны AMD стало семейство чипов Polaris. Линейка Polaris сейчас включает всего два чипа, на основе которых AMD производит три видеокарты (Radeon RX 460 , RX 470 и RX 480), в которых дополнительно варьирует объем набортной RAM. Как легко заметить даже по модельным номерам, в 400-й серии Radeon верхний эшелон производительности остался не занят. AMD предстоит наполнить его продуктами на базе кремния Vega. Еще в эпоху 28 нм AMD приобрела такую привычку — обкатывать нововведения на относительно мелких чипах и лишь затем внедрять во флагманских GPU.
Сразу нужно заметить, что в случае AMD новое семейство графических процессоров не тождественно новой версии подлежащей архитектуры GCN (Graphics Core Next), а отражает сочетание архитектуры и прочих особенностей продукта. Для GPU, построенных по новому техпроцессу, AMD отказалась от различных «островов» в кодовом имени (Northern Islands, South Islands и т. д.) и обозначает их именами звезд.
Тем не менее архитектура GCN в Polaris получила очередное, третье по счету обновление, благодаря которому (вместе с переходом на техпроцесс 14 нм FinFET) AMD существенно увеличила производительность на ватт.
- Compute Unit — элементарная форма организации шейдерных ALU в GCN — претерпел ряд изменений, связанных с предвыборкой и кешированием инструкций, обращениями к кешу L2, которые в совокупности повысили удельную производительность CU на 15%.
- Появилась поддержка вычислений половинной точности (FP16), которые используются в программах компьютерного зрения и машинного обучения.
- GCN 1.3 предоставляет прямой доступ к внутреннему набору инструкций (ISA) потоковых процессоров, за счет которого разработчики могут писать максимально «низкоуровневый» и быстрый код — в противоположность шейдерным языкам DirectX и OpenGL, абстрагированным от железа.
- Геометрические процессоры теперь способны на ранних этапах конвейера исключать полигоны нулевого размера либо полигоны, не имеющие пикселов в проекции, и получили кеш индексов, снижающий поглощение ресурсов при рендеринге мелкой дублирующейся геометрии.
- Кеш L2 удвоенного объема.
Кроме того, инженеры AMD приложили большие усилия, чтобы заставить Polaris работать на как можно более высокой частоте. Частота GPU теперь контролируется с минимальной латентностью (задержка меньше 1 нс), а кривую напряжения карта корректирует при каждой загрузке ПК, дабы принять в расчет разброс параметров между отдельными чипами и старение кремния в процессе эксплуатации.
Тем не менее переход на техпроцесс 14 нм FinFET не прошел гладко для AMD. Действительно, компания смогла увеличить производительность на ватт на 62% (судя по результатам Radeon RX 480 и Radeon R9 380X в игровых тестах и паспортному TDP карт). Однако максимальные частоты Polaris не превышают 1266 МГц, и лишь некоторые из партнеров-производителей достигли большего, дополнительно поработав над охлаждением и системой питания. С другой стороны, видеокарты GeForce по-прежнему сохраняют лидерство по соотношению быстродействие — мощность, которого NVIDIA достигла еще в поколении Maxwell. Похоже, что AMD на первом этапе не смогла раскрыть всех возможностей техпроцесса нового поколения, либо сама архитектура GCN уже требует глубокой модернизации — последняя задача осталась на долю чипов Vega.
Ускорители на базе Polaris занимают ценовой промежуток от $109 до $239 (см. таблицу), хотя в ответ на появление GeForce GTX 1050/1050 Ti AMD снизила цены на две младшие карты до $100 и $170 соответственно. На данный момент в каждой категории цены/производительности наблюдается одинаковое соотношение сил между конкурирующими продуктами: GeForce GTX 1050 Ti быстрее, чем Radeon RX 460 с 4 Гбайт RAM, GTX 1060 с 3 Гбайт памяти быстрее, чем RX 470, а полноценный GTX 1060 опережает RX 480. Вместе с тем видеокарты AMD стоят дешевле, а значит — пользуются популярностью.
⇡ AMD Radeon Pro Duo
Отчет о минувшем годе в сфере дискретных GPU будет не полон, если мы проигнорируем еще одну из «красных» видеокарт. Покуда AMD еще не выпустила флагманский однопроцессорный видеоадаптер на замену Radeon R9 Fury X, у компании оставался в запасе один проверенный ход, чтобы продолжить покорение новых рубежей, — установить два чипа Fiji на одну плату. Эта карта, выход которой AMD не раз переносила, все-таки появилась в продаже незадолго до GeForce GTX 1080, но попала в категорию профессиональных ускорителей Radeon Pro и позиционировалась как платформа для создания игр в среде VR.
Для геймеров при цене в $1 499 (дороже пары Radeon R9 Fury X на момент выхода) Radeon Pro Duo не представляет интереса, и у нас даже не было возможности протестировать эту карту. А жаль, ведь с технической точки зрения Radeon Pro Duo выглядит интригующе. Паспортный TDP карты вырос лишь на 27% по сравнению с Fury X при том, что пиковые частоты процессоров AMD снизила на 50 МГц. Ранее AMD уже удалось выпусить удачную двухпроцессорную видеокарту — Radeon R9 295X2, так что заявленные производителем спецификации не вызывают особого скепсиса.
Чего ждать в 2017 году
Главные ожидания на грядущий год связаны с AMD. NVIDIA, скорее всего, ограничится выпуском флагманской игровой карты на базе GP102 под именем GeForce GTX 1080 Ti и, быть может, заполнит другую вакансию в 10-й серии GeForce — GTX 1060 Ti. В остальном линейка ускорителей Pascal уже сформирована, а дебют следующей архитектуры, Volta, запланирован лишь на 2018 год.
Как и в сфере CPU, AMD собрала все силы для разработки по-настоящему прорывной микроархитектуры графических процессоров, в то время как Polaris стал лишь перевалочным пунктом на пути к последней. Предположительно, уже в первом квартале 2017 года компания впервые выпустит на массовый рынок свой лучший кремний, Vega 10 (а вместе с ним или впоследствии — один или несколько младших чипов линейки). Наиболее достоверным свидетельством его возможностей стал анонс вычислительной карты MI25 в линейке Radeon Instinct, которая позиционируется в качестве ускорителя задач глубинного обучения. Судя по спецификациям, в ее основе лежит не что иное, как Vega 10. Карта развивает вычислительную мощность 12,5 TFLOPS в расчетах одинарной точности (FP32) — это больше, чем у TITAN X на GP102, — и оснащается 16 Гбайт памяти HBM2. TDP видеокарты лежит в пределах 300 Вт. О реальном быстродействии процессора можно только гадать, однако известно, что Vega принесет наиболее масштабное обновление микроархитектуры GPU со времен выхода первых чипов на базе GCN пять лет тему назад. Последнее заметно улучшит показатели производительности на ватт и позволит более эффективно распорядиться вычислительной мощностью шейдерных ALU (в которой чипы AMD традиционно не испытывают недостатка) в игровых приложения.
Также ходят слухи, что инженеры AMD теперь в совершенстве овладели техпроцессом 14 нм FinFET и компания готова выпустить вторую версию видеокарт Polaris со значительно более низким TDP. Как нам кажется, если это соответствует действительности, то обновленные чипы скорее пойдут в линейку Radeon RX 500, чем получат увеличенные индексы в существующей 400-й серии.
⇡ Приложение. Актуальные линейки дискретных видеоадаптеров AMD и NVIDIA
Производитель | AMD | |||||
Модель | Radeon RX 460 | Radeon RX 470 | Radeon RX 480 | Radeon R9 Nano | Radeon R9 Fury | Radeon R9 Fury X |
Графический процессор | ||||||
Название | Polaris 11 | Polaris 10 | Polaris 10 | Fiji XT | Fiji PRO | Fiji XT |
Микроархитектура | GCN 1.3 | GCN 1.3 | GCN 1.3 | GCN 1.2 | GCN 1.2 | GCN 1.2 |
Техпроцесс, нм | 14 нм FinFET | 14 нм FinFET | 14 нм FinFET | 28 | 28 | 28 |
Число транзисторов, млн | 3 000 | 5 700 | 5 700 | 8900 | 8900 | 8900 |
1 090 / 1 200 | 926 / 1 206 | 1 120 / 1 266 | — / 1 000 | — / 1 000 | — / 1 050 | |
Число шейдерных ALU | 896 | 2 048 | 2 304 | 4096 | 3584 | 4096 |
56 | 128 | 144 | 256 | 224 | 256 | |
Число ROP | 16 | 32 | 32 | 64 | 64 | 64 |
Оперативная память | ||||||
Разрядность шины, бит | 128 | 256 | 256 | 4096 | 4096 | 4096 |
Тип микросхем | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5 SDRAM | HBM | HBM | HBM |
1 750 (7 000) | 1 650 (6 600) | 1 750 (7 000) / 2 000 (8 000) | 500 (1000) | 500 (1000) | 500 (1000) | |
Объем, Мбайт | 2 048 / 4 096 | 4 096 | 4 096 / 8 192 | 4096 | 4096 | 4096 |
Шина ввода/вывода | PCI Express 3.0 x8 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 |
Производительность | ||||||
2 150 | 4 940 | 5 834 | 8 192 | 7 168 | 8 602 | |
Производительность FP32/FP64 | 1/16 | 1/16 | 1/16 | 1/16 | 1/16 | 1/16 |
112 | 211 | 196/224 | 512 | 512 | 512 | |
Вывод изображения | ||||||
DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 | DL DVI-D, HDMI 2.0b, DisplayPort 1.3/1.4 | HDMI 1.4a, DisplayPort 1.2 | HDMI 1.4a, DisplayPort 1.2 | HDMI 1.4a, DisplayPort 1.2 | ||
TDP, Вт | <75 | 120 | 150 | 175 | 275 | 275 |
109/139 | 179 | 199/229 | 649 | 549 | 649 | |
8 299 / 10 299 | 15 999 | 16 310 / 18 970 | НД | НД | НД |
Производитель | NVIDIA | ||||||
Модель | GeForce GTX 1050 | GeForce GTX 1050 Ti | GeForce GTX 1060 3 GB | GeForce GTX 1060 | GeForce GTX 1070 | GeForce GTX 1080 | TITAN X |
Графический процессор | |||||||
Название | GP107 | GP107 | GP106 | GP106 | GP104 | GP104 | GP102 |
Микроархитектура | Pascal | Pascal | Maxwell | Maxwell | Pascal | Pascal | Pascal |
Техпроцесс, нм | 14 нм FinFET | 14 нм FinFET | 16 нм FinFET | 16 нм FinFET | 16 нм FinFET | 16 нм FinFET | 16 нм FinFET |
Число транзисторов, млн | 3 300 | 3 300 | 4 400 | 4 400 | 7 200 | 7 200 | 12 000 |
Тактовая частота, МГц: Base Clock / Boost Clock | 1 354 / 1 455 | 1 290 / 1 392 | 1506/1708 | 1506/1708 | 1 506 / 1 683 | 1 607 / 1 733 | 1 417 / 1531 |
Число шейдерных ALU | 640 | 768 | 1 152 | 1 280 | 1 920 | 2 560 | 3 584 |
Число блоков наложения текстур | 40 | 48 | 72 | 80 | 120 | 160 | 224 |
Число ROP | 32 | 32 | 48 | 48 | 64 | 64 | 96 |
Оперативная память | |||||||
Разрядность шины, бит | 128 | 128 | 192 | 192 | 256 | 256 | 384 |
Тип микросхем | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5 SDRAM | GDDR5X SDRAM | GDDR5X SDRAM |
Тактовая частота, МГц (пропускная способность на контакт, Мбит/с) | 1 750 (7 000) | 1 750 (7 000) | 2000 (8000) | 2000 (8000) | 2000 (8000) | 1 250 (10 000) | 1 250 (10 000) |
Объем, Мбайт | 2 048 | 4 096 | 6 144 | 6 144 | 8 192 | 8 192 | 12 288 |
Шина ввода/вывода | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 | PCI Express 3.0 x16 |
Производительность | |||||||
Пиковая производительность FP32, GFLOPS (из расчета максимальной указанной частоты) | 1 862 | 2 138 | 3 935 | 4 373 | 6 463 | 8 873 | 10 974 |
Производительность FP32/FP64 | 1/32 | 1/32 | 1/32 | 1/32 | 1/32 | 1/32 | 1/32 |
Пропускная способность оперативной памяти, Гбайт/с | 112 | 112 | 192 | 192 | 256 | 320 | 480 |
Вывод изображения | |||||||
Интерфейсы вывода изображения | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | DL DVI-D, DisplayPort 1.3/1.4, HDMI 2.0b | |
TDP, Вт | 75 | 75 | 120 | 120 | 150 | 180 | 250 |
Рекомендованная розничная цена на момент выхода (США, без налога), $ | 109 | 139 | 199 | 249/299 (Founders Edition / партнерские карты) | 379/449 (Founders Edition / партнерские карты) | 599/699 (Founders Edition / партнерские карты) | 1 200 |
Рекомендованная розничная цена на момент выхода (Россия), руб. | 8 490 | 10 490 | НД | 18 999 / — (Founders Edition / партнерские карты) | НД / 34 990 (Founders Edition / партнерские карты) | НД / 54 990 (Founders Edition / партнерские карты) | — |
В современных устройствах применяется графический процессор, который еще обозначают как GPU. Что это и каков его принцип работы? GPU (Graphics - процессор, основная задача которого - обработка графики и вычислений с плавающей точкой. GPU облегчает работу главного процессора, если идет речь о тяжелых играх и приложениях с 3D-графикой.
Что это?
Графический процессор создает графику, текстуры, цвета. Процессор, который обладает несколькими ядрами, может работать на высоких скоростях. У графического много ядер, функционирующих преимущественно на низких скоростях. Они занимаются вычислениями пикселей и вершин. Обработка последних в основном происходит в системе координат. Процессор графический обрабатывает различные задачи, создавая на экране трехмерное пространство, то есть объекты в нем перемещаются.
Принцип работы
Что делает графический процессор? Он занимается обработкой графики в формате 2D и 3D. Благодаря GPU компьютеру быстрее и легче удается выполнять важные задачи. Особенность графического процессора состоит в том, что он увеличивает скорость расчета на максимальном уровне. Его архитектура устроена так, что позволяет более эффективно обрабатывать визуальную информацию, чем центральный CPU компьютера.
Он отвечает за расположение трехмерных моделей в кадре. Кроме того, каждый из процессора фильтрует треугольники, входящие в него. Он определяет, какие на виду, удаляет те, которые скрываются за другими объектами. Прорисовывает источники света, определяет, каким образом эти источники влияют на цвет. Графический процессор (что это такое - описано в статье) создает изображение, выдает его пользователю на экран.
Эффективность работы
Чем обусловлена эффективная работа графического процессора? Температурой. Одна из проблем ПК и ноутбуков - перегрев. Именно это становится главной причиной того, почему устройство и его элементы быстро выходят из строя. Проблемы с GPU начинаются, когда температура процессора превышает 65 °С. В этом случае пользователи замечают, что процессор начинает работать слабее, пропускает такты, чтобы самостоятельно понизить увеличенную температуру.
Температурный режим 65-80 °С - критический. В этом случае начинается перезагрузка системы (аварийная), компьютер выключается самостоятельно. Пользователю важно отслеживать, чтобы температура графического процессора не превышала 50 °С. Нормальной считается t 30-35 °С в простое, 40-45 °С при многочасовой нагрузке. Чем ниже температура, тем выше производительность компьютера. Для материнской платы, видеокарты, корпуса и жестких дисков - свои температурные режимы.
Но многих пользователей также беспокоит вопрос, как же уменьшить температуру процессора, чтобы повысить эффективность его работы. Для начала нужно выяснить причину перегрева. Это может быть засорение системы охлаждения, высохшая термопаста, вредоносная программа, разгон процессора, сырая прошивка БИОСа. Самое простое, что может сделать пользователь, - это заменить термопасту, которая находится на самом процессоре. Кроме того, нужно произвести чистку системы охлаждения. Еще специалисты советуют установить мощный кулер, улучшить циркуляцию воздуха в системном блоке, увеличить скорость вращения на графическом адаптере кулера. Для всех компьютеров и графических процессоров одинаковая схема понижения температуры. Важно следить за устройством, вовремя его чистить.
Специфика
Графический процессор расположен на видеокарте, его главная задача - это обработка 2D и 3D графики. Если на компьютере установлен GPU, то процессор устройства не выполняет лишнюю работу, поэтому функционирует быстрее. Главная особенность графического в том, что его основная цель - это увеличение скорости расчета объектов и текстур, то есть графической информации. Архитектура процессора позволяет им работать намного эффективнее, обрабатывать визуальную информацию. Обычному процессору такое не под силу.
Виды
Что это - графический процессор? Это компонент, входящий в состав видеокарты. Существует несколько видов чипов: встроенный и дискретный. Специалисты утверждают, что лучше справляется со своей задачей второй. Его устанавливают на отдельные модули, так как отличается он своей мощью, но ему необходимо отличное охлаждение. Встроенный графический процессор есть практически во всех компьютерах. Его устанавливают в CPU, чтобы сделать потребление энергии в несколько раз ниже. С дискретными по мощи он не сравнится, но тоже обладает хорошими характеристиками, демонстрирует неплохие результаты.
Компьютерная графика
Это что? Так называется область деятельности, в которой для создания изображений и обработки визуальной информации используют компьютерные технологии. Современная компьютерная графика, в том числе научная, позволяет графически обрабатывать результаты, строить диаграммы, графики, чертежи, а также производить различного рода виртуальные эксперименты.
С помощью конструктивной графики создаются технические изделия. Существуют и другие виды компьютерной графики:
- анимационная;
- мультимедийная;
- художественная;
- рекламная;
- иллюстративная.
С технической точки зрения компьютерная графика - это двухмерные и трехмерные изображения.
CPU и GPU: разница
В чем разница между этими двумя обозначениями? Многие пользователи в курсе, что графический процессор (что это - рассказано выше) и видеокарта выполняют разные задачи. Кроме того, они отличаются по своей внутренней структуре. И CPU, и GPU - которые обладают многими сходными чертами, но сделаны они для разных целей.
CPU выполняет определенную цепочку инструкций за короткий промежуток времени. Он сделан так, что формирует одновременно несколько цепочек, разбивает поток инструкций на множество, выполняет их, затем снова сливает в одно целое в конкретном порядке. Инструкция в потоке находится в зависимости от тех, что за ней следуют, поэтому в CPU содержится малое число исполнительных блоков, здесь главный приоритет отдается скорости выполнения, уменьшению простоев. Все это достигается при помощи конвейера и кэш-памяти.
У GPU другая важная функция - рендеринг визуальных эффектов и 3D-графики. Работает он проще: на входе получает полигоны, проводит необходимые логические и математические операции, на выходе выдает координаты пикселей. Работа GPU - это оперирование большим потоком разных задач. Его особенность в том, что он наделен большим но медленно работает по сравнению с CPU. Кроме того, в современных GPU более 2000 исполнительных блоков. Отличаются они между собой методами доступа к памяти. Например, графическому не нужна кэшированная память большого размера. У GPU пропускная способность больше. Если объяснять простыми словами, то CPU принимает решения в соответствии с задачами программы, а GPU производит множество одинаковых вычислений.
Встроенный графический процессор как для геймеров, так и для нетребовательных пользователей играет важную роль.
От него зависит качество игр, фильмов, просмотра видео в интернете и изображений.
Принцип работы
Графический процессор интегрируется в материнскую плату компьютера - так выглядит встроенный графический .
Как правило, используют его, чтобы убрать необходимость установки графического адаптера - .
Такая технология помогает снизить себестоимость готового продукта. Кроме того, благодаря компактности и нетребовательного энергопотребления таких процессоров их часто устанавливают в ноутбуки и маломощные настольные компьютеры.
Таким образом, встроенные графические процессоры заполонили эту нишу настолько, что 90% ноутбуков на полках магазинов США имеют именно такой процессор.
Вместо обычной видеокарты во встроенных графиках часто вспомогательным средством служит сама оперативная память компьютера.
Правда, такое решение несколько ограничивает производительность девайса. Всё же сам компьютер и графический процессор используют одну шину для памяти.
Так что подобное “соседство” сказывается на выполнении задач, особенно при работе со сложной графикой и во время игрового процесса.
Виды
Встроенная графика имеет три группы:
- Графика с разделяемой памятью - устройство, в основе которого совместное с главным процессором управление оперативной памятью. Это значительно уменьшает стоимость, улучшает систему энергосбережения, однако ухудшает производительность. Соответственно, для тех, кто работает со сложными программами, встроенные графические процессоры такого вида с большей вероятностью не подойдут.
- Дискретная графика - видеочип и один-два модуля видеопамяти распаяны на системной плате. Благодаря этой технологии существенно улучшается качество изображения, а также становится возможным работать с трехмерной графикой с наилучшими результатами. Правда, заплатить за это придется немало, а если вы и подыскиваете высокомощный процессор по всем параметрам, то стоимость может быть неимоверно высокой. К тому же, счет за электричество несколько вырастет - энергопотребление дискретных графических процессоров выше обычного.
- Гибридная дискретная графика - сочетание двух предыдущих видов, что обеспечило создание шины PCI Express. Таким образом, доступ к памяти осуществляется и через распаянную видеопамять, и через оперативную. С помощью этого решения производители хотели создать компромиссное решение, но оно все же не нивелирует недостатки.
Производители
Занимаются изготовлением и разработкой встроенных графических процессоров, как правило, крупные компании - , и , но подключаются к этой сфере и многие небольшие предприятия.
Сделать это несложно. Найдите надпись Primary Display или Init Display First. Если не видите что-то такое, поищите Onboard, PCI, AGP или PCI-E (всё зависит от установленных шин на материнку).
Выбрав PCI-E, к примеру, вы включаете видеокарту PCI-Express, а встроенную интегрированную отключаете.
Таким образом, чтобы включить интегрированную видеокарту нужно найти соответствующие параметры в биосе. Часто процесс включения автоматический.
Отключить
Отключение лучше проводить в БИОСе. Это самый простой и незатейливый вариант, подходящий для практически всех ПК. Исключением являются разве что некоторые ноутбуки.
Снова же найдите в БИОС Peripherals или Integrated Peripherals, если вы работаете на десктопе.
Для ноутбуков название функции другое, причем и не везде одинаковое. Так что просто найдите что-то относящиеся к графике. К примеру, нужные опции могут быть размещены в разделах Advanced и Config.
Отключение тоже проводится по-разному. Иногда хватает просто щелкнуть “Disabled” и выставить PCI-E видеокарту первой в списке.
Если вы пользователь ноутбука, не пугайтесь, если не можете найти подходящий вариант, у вас априори может не быть такой функции. Для всех остальных устройств же правила простые - как бы не выглядел сам БИОС, начинка та же.
Если вы имеете две видеокарты и они обе показаны в диспетчере устройств, то дело совсем простое: кликнете на одну из них правой стороной мышки и выберите “отключить”. Правда, учитывайте, что дисплей может потухнуть. У , скорее всего, так и будет.
Однако и это решаемая проблема. Достаточно перезагрузить компьютер или же по .
Все последующие настройки проведите на нем. Если не работает данный способ, сделайте откат своих действий с помощью безопасного режима. Также можете прибегнуть и к предыдущему способу - через БИОС.
Две программы - NVIDIA Control Center и Catalyst Control Center - настраивают использование определенного видеоадаптера.
Они наиболее неприхотливы по сравнению с двумя другими способами - экран вряд ли выключится, через БИОС вы тоже случайно не собьете настройки.
Для NVIDIA все настройки находятся в разделе 3D.
Выбрать предпочитаемый видеоадаптер можно и для всей операционной системы, и для определенных программ и игр.
В ПО Catalyst идентичная функция расположена в опции «Питание» в подпункте “Switchable Graphics”.
Таким образом, переключиться между графическими процессорами не составляет особого труда.
Есть разные методы, в частности, и через программы, и через БИОС, Включение или выключение той или иной интегрированной графики может сопутствоваться некоторыми сбоями, связанных преимущественно с изображением.
Может погаснуть или просто появиться искажения. На сами файлы в компьютере ничего не должно повлиять, разве что вы что-то наклацали в БИОСе.
Заключение
В итоге, встроенные графические процессоры пользуются спросом за счет своей дешевизны и компактности.
За это же придется платить уровнем производительности самого компьютера.
В некоторых случая интегрированная графика просто необходима - дискретные процессоры идеальны для работы с трехмерными изображениями.
К тому же, лидеры отрасли - Intel, AMD и Nvidia. Каждый из них предлагает свои графические ускорители, процессоры и другие составляющие.
Последние популярные модели - Intel HD Graphics 530 и AMD A10-7850K. Они довольно функциональны, но имеют некоторые огрехи. В частности, это относится к мощности, производительности и стоимости готового продукта.
Включить или отключить графический процессор со встроенным ядром можно или же самостоятельно через БИОС, утилиты и разного рода программы, но и сам компьютер вполне может сделать это за вас. Всё зависит от того, какая видеокарта подключена к самому монитору.