Geïntegreerde GPU's - Alles over aansluiten en loskoppelen. GPU-gebruik bijhouden in Windows Taakbeheer GPU GPU die in de kaart wordt gebruikt

De mogelijkheid gekregen om prestatiegegevens van de grafische verwerkingseenheid (GPU) te monitoren. Gebruikers kunnen deze informatie analyseren om te begrijpen hoe grafische kaartbronnen worden gebruikt, die steeds vaker worden gebruikt in computers.

Dit betekent dat alle GPU's die op de pc zijn geïnstalleerd, worden weergegeven op het tabblad Prestaties. Bovendien kunt u op het tabblad Processen zien welke processen toegang hebben tot de GPU, en de GPU-geheugengebruiksgegevens bevinden zich op het tabblad Details.

Controleren of de GPU-prestatieviewer wordt ondersteund

Hoewel Taakbeheer geen speciale vereisten heeft voor het monitoren van CPU-, geheugen-, schijf- of netwerkadapters, is de situatie voor GPU's iets anders.

In Windows 10 is GPU-informatie alleen beschikbaar in Taakbeheer als u de Windows Display Driver Model (WDDM)-architectuur gebruikt. WDDM is een grafische driverarchitectuur voor een videokaart die weergave van desktops en applicaties op het scherm mogelijk maakt.

WDDM biedt een grafische kern, die een planner (VidSch) en een videogeheugenmanager (VidMm) omvat. Het zijn deze modules die verantwoordelijk zijn voor het nemen van beslissingen bij het gebruik van GPU-bronnen.

De taakbeheerder ontvangt informatie over het gebruik van GPU-bronnen rechtstreeks van de planner en videogeheugenbeheerder van de grafische kern. Bovendien geldt dit zowel voor geïntegreerde als voor dedicated GPU's. Om deze functie correct te laten werken, is WDDM versie 2.0 of hoger vereist.

Volg deze stappen om te controleren of uw apparaten het bekijken van GPU-gegevens in Taakbeheer ondersteunen:

  1. Gebruik de Windows-sneltoets + R om de opdracht Uitvoeren te openen.
  2. Voer de opdracht in dxdiag.exe om het DirectX Diagnostic Tool te openen en druk op Enter.
  3. Ga naar het tabblad "Scherm".
  4. In het rechtergedeelte “Stuurprogramma’s” bekijkt u de waarde van het stuurprogrammamodel.

Als u WDDM 2.0 of hoger gebruikt, geeft Taakbeheer GPU-gebruiksgegevens weer op het tabblad Prestaties.

GPU-prestaties controleren met Taakbeheer

Om GPU-prestatiegegevens te controleren met Taakbeheer, klikt u eenvoudig met de rechtermuisknop op de taakbalk en selecteert u Taakbeheer. Als de compacte weergave actief is, klikt u op de knop Meer details en gaat u vervolgens naar het tabblad Prestaties.

Advies: Om Taakbeheer snel te starten, kunt u de sneltoets Ctrl + Shift + Esc gebruiken

Tabblad Prestaties

Als uw computer WDDM versie 2.0 of hoger ondersteunt, dan in het linkerdeelvenster van de tabbladen Prestatie Uw GPU wordt weergegeven. Als er meerdere GPU's op het systeem zijn geïnstalleerd, wordt elke GPU weergegeven met een nummer dat overeenkomt met de fysieke locatie, zoals GPU 0, GPU 1, GPU 2, enz.

Windows 10 ondersteunt meerdere GPU-koppelingen met behulp van de Nvidia SLI- en AMD Crossfire-modi. Wanneer een van deze configuraties op het systeem wordt gedetecteerd, geeft het tabblad Prestaties elke link aan met een nummer (bijvoorbeeld Link 0, Link 1, enz.). De gebruiker kan elke GPU binnen de bundel zien en controleren.

Op de specifieke GPU-pagina vindt u verzamelde prestatiegegevens, die doorgaans in twee secties zijn verdeeld.

De sectie bevat actuele informatie over de motoren van de GPU zelf, en niet over de afzonderlijke kernen.

Taakbeheer geeft standaard de vier meest gevraagde GPU-engines weer, die standaard 3D, Rip, Video Decoding en Video Processing omvatten, maar u kunt deze weergaven wijzigen door op de naam te klikken en een andere engine te selecteren.

De gebruiker kan zelfs de grafiekweergave wijzigen in een enkele engine door met de rechtermuisknop ergens in de sectie te klikken en de optie "Grafiek wijzigen > Enkele engine" te selecteren.

Onder de enginegrafieken vindt u een gegevensblok over het videogeheugenverbruik.

Taakbeheer toont twee soorten videogeheugen: gedeeld en speciaal.

Toegewijd geheugen is geheugen dat alleen door de grafische kaart wordt gebruikt. Meestal is dit de hoeveelheid VRAM op afzonderlijke kaarten of de hoeveelheid geheugen die beschikbaar is voor de processor waarop de computer is geconfigureerd om expliciet te worden gereserveerd.

In de rechter benedenhoek wordt de parameter "Hardware gereserveerd geheugen" weergegeven - deze hoeveelheid geheugen is gereserveerd voor het videostuurprogramma.

De hoeveelheid toegewezen geheugen in deze partitie vertegenwoordigt de hoeveelheid geheugen die actief wordt gebruikt door processen, en de hoeveelheid gedeeld geheugen in deze partitie vertegenwoordigt de hoeveelheid systeemgeheugen die wordt gebruikt voor grafische doeleinden.

Bovendien ziet u in het linkerpaneel onder de naam GPU's het huidige GPU-resourcegebruik als percentage. Het is belangrijk op te merken dat Taakbeheer het percentage van de drukste engine gebruikt om het totale gebruik weer te geven.

Als u prestatiegegevens in de loop van de tijd wilt bekijken, voert u een GPU-intensieve toepassing uit, zoals een videogame.

Het tabblad Processen

U kunt ook de GPU-prestaties volgen op het tabblad Processen. In deze sectie vindt u een algemene samenvatting voor een specifiek proces.

De GPU-kolom toont het meest actieve enginegebruik om het totale GPU-resourcegebruik van een bepaald proces weer te geven.

Als meerdere motoren echter een bezettingsgraad van 100 procent melden, kan er verwarring ontstaan. De extra kolom “GPU Core” biedt gedetailleerde informatie over de engine die door dit proces wordt geladen.

De kolomkop op het tabblad Processen toont het totale bronnenverbruik van alle GPU's die beschikbaar zijn op het systeem.

Als u deze kolommen niet ziet, klikt u met de rechtermuisknop op een kolomkop en vinkt u de juiste vakjes aan.

Tabblad Details

Standaard geeft het tabblad geen GPU-informatie weer, maar u kunt altijd met de rechtermuisknop op de kolomkop klikken, de optie "Kolommen selecteren" selecteren en de volgende opties inschakelen:

  • GPU-kern
  • Speciaal GPU-geheugen
  • Gedeeld GPU-geheugen

De geheugentabbladen geven respectievelijk het totale en toegewezen geheugen weer dat door een bepaald proces wordt gebruikt. De kolommen GPU en GPU Core tonen dezelfde informatie als op het tabblad Processen.

Wanneer u het tabblad Details gebruikt, moet u er rekening mee houden dat de toevoeging van gebruikt geheugen bij elk proces groter kan zijn dan het totaal beschikbare geheugen, omdat het totale geheugen meerdere keren wordt geteld. Deze informatie is nuttig om inzicht te krijgen in het geheugengebruik van een proces, maar u kunt het tabblad Prestaties gebruiken om meer gedetailleerde informatie over het grafische gebruik te zien.

Conclusie

Microsoft streeft ernaar gebruikers een nauwkeuriger hulpmiddel voor grafische prestaties te bieden dan toepassingen van derden. Houd er rekening mee dat er aan deze functionaliteit wordt gewerkt en dat er in de nabije toekomst verbeteringen mogelijk zijn.

Hallo, beste gebruikers en liefhebbers van computerhardware. Vandaag zullen we bespreken wat geïntegreerde grafische afbeeldingen in een processor zijn, waarom deze überhaupt nodig zijn en of een dergelijke oplossing een alternatief is voor discrete, dat wil zeggen externe videokaarten.

Als we vanuit het oogpunt van technisch ontwerp denken, dan is de ingebouwde grafische kern, die veel wordt gebruikt in hun producten door Intel en AMD, geen videokaart als zodanig. Dit is een videochip die in de CPU-architectuur is geïntegreerd om de basistaken van een discrete versneller uit te voeren. Maar laten we alles in meer detail begrijpen.

Uit dit artikel leer je:

Geschiedenis van uiterlijk

Bedrijven begonnen halverwege de jaren 2000 voor het eerst grafische afbeeldingen in hun eigen chips te implementeren. Intel begon de ontwikkeling met Intel GMA, maar deze technologie toonde zich nogal slecht en was daarom ongeschikt voor videogames. Als resultaat wordt de beroemde HD Graphics-technologie geboren (momenteel is de nieuwste vertegenwoordiger van de lijn HD Graphics 630 in de achtste generatie Coffee Lake-chips). De videokern debuteerde op de Westmere-architectuur, als onderdeel van de mobiele chips van Arrandale en de desktopchips van Clarkdale (2010).

AMD ging een andere route. Eerst kocht het bedrijf ATI Electronics over, een ooit coole fabrikant van videokaarten. Toen begon ze zich te verdiepen in haar eigen AMD Fusion-technologie en creëerde ze haar eigen APU's: een centrale processor met een ingebouwde videokern (Accelerated Processing Unit). De chips van de eerste generatie debuteerden als onderdeel van de Liano-architectuur, en vervolgens van Trinity. Welnu, grafische kaarten uit de Radeon R7-serie zijn al lange tijd opgenomen in laptops en netbooks uit de middenklasse.

De voordelen van embedded oplossingen in games

Dus. Waarom heb je een geïntegreerde kaart nodig en wat zijn de verschillen met een discrete kaart?

We zullen proberen een vergelijking te maken met een uitleg van elk standpunt, waardoor alles zo beredeneerd mogelijk is. Laten we misschien beginnen met zo'n kenmerk als prestatie. We zullen de meest actuele oplossingen van Intel (HD 630 met een grafische versnellerfrequentie van 350 tot 1200 MHz) en AMD (Vega 11 met een frequentie van 300-1300 MHz) overwegen en vergelijken, evenals de voordelen die deze oplossingen bieden.
Laten we beginnen met de kosten van het systeem. Dankzij de geïntegreerde grafische kaart kunt u veel besparen op de aanschaf van een afzonderlijke oplossing, tot wel $ 150, wat van cruciaal belang is bij het creëren van de meest economische pc voor kantoorgebruik.

De frequentie van de AMD grafische versneller is merkbaar hoger en de prestaties van de adapter van de rode zijn aanzienlijk hoger, wat de volgende indicatoren in dezelfde games aangeeft:

Spel Instellingen Intel AMD
PUBG FullHD, laag 8–14 fps 26-36 fps
GTA V FullHD, gemiddeld 15–22 fps 55-66 fps
Wolfenstein II HD, laag 9–14 fps 85-99 fps
Fortnite FullHD, gemiddeld 9–13 fps 36-45 fps
Rocket League FullHD, hoog 15–27 fps 35-53 fps
CS:GA FullHD, maximaal 32-63 fps 105–164 fps
Overwatch FullHD, gemiddeld 15–22 fps 50-60 fps

Zoals je kunt zien, is Vega 11 de beste keuze voor goedkope 'gaming'-systemen, omdat de prestaties van de adapter in sommige gevallen het niveau bereiken van een volwaardige GeForce GT 1050. En in de meeste online gevechten presteert hij goed.

Voorlopig wordt deze grafische kaart alleen geleverd met de AMD Ryzen 2400G-processor, maar het is zeker het bekijken waard.

Optie voor kantoortaken en thuisgebruik

Welke eisen stelt u het vaakst aan uw pc? Als we games uitsluiten, krijgen we de volgende set parameters:

  • films kijken in HD-kwaliteit en video's op Youtube (FullHD en in zeldzame gevallen 4K);
  • werken met een browser;
  • naar muziek luisteren;
  • communiceren met vrienden of collega's via instant messengers;
  • applicatie-ontwikkeling;
  • kantoortaken (Microsoft Office en soortgelijke programma's).

Al deze punten werken perfect met de ingebouwde grafische kern bij resoluties tot FullHD.
De enige nuance waarmee rekening moet worden gehouden, is de ondersteuning van video-uitgangen door het moederbord waarop u de processor gaat installeren. Gelieve dit punt vooraf te verduidelijken om problemen in de toekomst te voorkomen.

Nadelen van geïntegreerde grafische afbeeldingen

Omdat we de voordelen hebben behandeld, moeten we ook de nadelen van de oplossing uitwerken.

  • Het grootste nadeel van een dergelijke onderneming is de productiviteit. Ja, je kunt min of meer moderne games met een gerust geweten spelen op lage en hoge instellingen, maar liefhebbers van graphics zullen dit idee zeker niet leuk vinden. Welnu, als je professioneel met grafische afbeeldingen werkt (verwerking, weergave, videobewerking, postproductie) en zelfs op 2-3 monitoren, dan zal het geïntegreerde videotype zeker niet bij je passen.

  • Punt nummer 2: het ontbreken van een eigen hogesnelheidsgeheugen (in moderne kaarten is dit GDDR5, GDDR5X en HBM). Formeel kan de videochip minimaal 64 GB geheugen gebruiken, maar waar komt dat allemaal vandaan? Dat klopt, vanuit de operatiekamer. Dit betekent dat het noodzakelijk is om het systeem vooraf zo te bouwen dat er voldoende RAM-geheugen is voor zowel werk- als grafische taken. Houd er rekening mee dat de snelheid van moderne DDR4-modules veel lager is dan die van GDDR5, en dat er daarom meer tijd zal worden besteed aan het verwerken van gegevens.
  • Het volgende nadeel is de warmteontwikkeling. Naast zijn eigen kernen verschijnt er tijdens het proces nog een andere, die in theorie niet minder opwarmt. Je kunt al deze pracht verkoelen met een (complete) draaitafel in een doos, maar wees voorbereid op periodieke onderschatting van frequenties bij bijzonder complexe berekeningen. Het kopen van een krachtigere koeler lost het probleem op.
  • Welnu, de laatste nuance is de onmogelijkheid om video te upgraden zonder de processor te vervangen. Met andere woorden, om de ingebouwde videokern te verbeteren, zul je letterlijk een nieuwe processor moeten kopen. Een twijfelachtig voordeel, nietwaar? In dit geval is het gemakkelijker om na een tijdje een discrete versneller aan te schaffen. Fabrikanten als AMD en nVidia bieden uitstekende oplossingen voor elke smaak.

Resultaten

Geïntegreerde grafische afbeeldingen zijn in 3 gevallen een goede optie:

  • je hebt een tijdelijke videokaart nodig omdat je niet genoeg geld hebt voor een externe;
  • het systeem was aanvankelijk bedoeld als een extra-budgetsysteem;
  • u maakt een multimediawerkstation voor thuis (HTPC), waarbij de nadruk vooral ligt op de ingebouwde kern.

We hopen dat er één probleem minder in je hoofd zit, en nu weet je waarom fabrikanten hun APU's maken.

In de volgende artikelen zullen we het hebben over termen als virtualisatie en meer. Volg om op de hoogte te blijven van de nieuwste onderwerpen met betrekking tot hardware.

Moderne videokaarten zijn, vanwege de enorme rekenkracht die ze nodig hebben bij het werken met grafische afbeeldingen, uitgerust met een eigen commandomidden, met andere woorden: de grafische processor.

Dit werd gedaan om de centrale processor te ‘ontladen’, die vanwege zijn brede ‘toepassingsgebied’ simpelweg niet in staat is om te voldoen aan de eisen die modernegaming-industrie.

Grafische verwerkingseenheden (GPU's) doen qua complexiteit absoluut niet onder voor centrale processors, maar vanwege hun beperkte specialisatie kunnen ze effectiever omgaan met de taak van het verwerken van afbeeldingen, het construeren van een afbeelding en het vervolgens weergeven ervan op de monitor.

Als we het over de parameters hebben, lijken deze voor GPU's sterk op centrale processors. Dit zijn parameters die al bij iedereen bekend zijn, zoals de microarchitectuur van de processor, klok frequentie kernwerk, productieproces. Maar ze hebben ook vrij specifieke kenmerken. Een belangrijk kenmerk van een GPU is bijvoorbeeld het aantal pixelpijplijnen. Deze eigenschap bepaalt het aantal pixels dat per GPU-klokcyclus wordt verwerkt. Het aantal van deze pijpleidingen kan variëren, in de grafische chips uit de Radeon HD 6000-serie kan hun aantal bijvoorbeeld 96 bereiken.

De pixelpijplijn houdt zich bezig met het berekenen van elke volgende pixel van de volgende afbeelding, rekening houdend met de kenmerken ervan. Om het weergaveproces te versnellen, worden verschillende parallel lopende pijplijnen gebruikt die verschillende pixels van dezelfde afbeelding berekenen.

Ook beïnvloedt het aantal pixelpijplijnen een belangrijke parameter: de vulsnelheid van de videokaart. De vulsnelheid van een videokaart kan worden berekend door de kernfrequentie te vermenigvuldigen met het aantal pijpleidingen.

Laten we het opvullingspercentage berekenen voor bijvoorbeeld een AMD Radeon HD 6990 videokaart (Afb.2) De GPU-kernfrequentie van deze chip is 830 MHz en het aantal pixelpijplijnen is 96. Met eenvoudige wiskundige berekeningen (830x96) komen we tot de conclusie dat de opvullingssnelheid gelijk zal zijn aan 57,2 Gpixel/s.


Rijst. 2

Naast pixelpijplijnen bevinden zich in elke pijplijn ook zogenaamde textuureenheden. Hoe meer textuureenheden, hoe meer texturen er in één doorgang van de pijplijn kunnen worden toegepast, wat ook de algehele prestaties van het hele videosysteem beïnvloedt. In de bovengenoemde AMD Radeon HD 6990-chip is het aantal texture sampling-eenheden 32x2.

In grafische processors kan een ander type pijplijn worden onderscheiden: hoekpuntpijplijnen, zij zijn verantwoordelijk voor het berekenen van de geometrische parameters van een driedimensionaal beeld.

Laten we nu eens kijken naar het stapsgewijze, enigszins vereenvoudigde proces van pijplijnberekening, gevolgd door beeldvorming:

1 - e etappe.Gegevens over textuurhoekpunten gaan naar hoekpuntpijplijnen, die geometrieparameters berekenen. In dit stadium is het blok “T&L” (Transform & Lightning) verbonden. Dit blok is verantwoordelijk voor de belichting en beeldtransformatie in driedimensionale scènes. Gegevensverwerking in de vertex-pijplijn wordt uitgevoerd door het vertex-shaderprogramma.

2 - O stadium.In de tweede fase van de beeldvorming wordt een speciale Z-buffer aangesloten om onzichtbare polygonen en vlakken van driedimensionale objecten af ​​te snijden. Vervolgens vindt het proces van het filteren van texturen plaats; hiervoor gaan pixel shaders de “strijd” in. De OpenGL- of Direct3D-programmeerinterfaces beschrijven standaarden om mee te werken driedimensionale afbeeldingen. De applicatie roept een bepaalde standaard OpenGL- of Direct3D-functie aan en shaders voeren deze functie uit.

3e etappe.In de laatste fase van de beeldconstructie bij pijplijnverwerking worden de gegevens overgebracht naar een speciale framebuffer.

We hebben dus zojuist de structuur en werkingsprincipes van GPU's kort besproken; de informatie is natuurlijk niet "gemakkelijk" te begrijpen, maar voor algemene computerontwikkeling denk ik dat het erg nuttig zal zijn :)

GPU (Graphics Processing Unit) is een processor die exclusief is ontworpen voor grafische verwerking en drijvende-kommaberekeningen. Het is voornamelijk bedoeld om de werklast van de hoofdprocessor te verlichten als het gaat om veeleisende games of applicaties met 3D-graphics. Wanneer je een game speelt, is de GPU verantwoordelijk voor het maken van afbeeldingen, kleuren en texturen, terwijl de CPU kunstmatige intelligentie of spelmechanische berekeningen kan verwerken.

Waar kijken we als eerste naar bij het kiezen van een smartphone? Laten we de kosten even buiten beschouwing, dan kiezen we uiteraard allereerst voor het schermformaat. Dan zijn we geïnteresseerd in de camera, de hoeveelheid RAM, het aantal cores en de processorfrequentie. En hier is alles eenvoudig: hoe meer, hoe beter, en hoe minder, hoe slechter. Moderne apparaten gebruiken echter ook een grafische processor, ook wel GPU genoemd. Wat het is, hoe het werkt en waarom het belangrijk is om erover te weten, vertellen we je hieronder.

De GPU-architectuur verschilt niet veel van de CPU-architectuur, maar is meer geoptimaliseerd voor efficiënte grafische verwerking. Als je de GPU dwingt andere berekeningen uit te voeren, zal hij zijn slechtste kant laten zien.

Videokaarten die afzonderlijk zijn aangesloten en op hoog vermogen werken, bestaan ​​alleen in laptops en desktopcomputers. Als we het over apparaten hebben, dan hebben we het over geïntegreerde grafische afbeeldingen en wat we SoC (System-on-a-Chip) noemen. De processor heeft bijvoorbeeld een geïntegreerde Adreno 430 GPU. Het geheugen dat hij voor zijn werking gebruikt, is systeemgeheugen, terwijl grafische kaarten in desktop-pc's geheugen toegewezen krijgen dat alleen voor hen beschikbaar is. Toegegeven, er zijn ook hybride chips.

Terwijl een CPU met meerdere kernen op hoge snelheden draait, heeft een GPU veel processorkernen die op lage snelheden draaien en weinig meer doen dan hoekpunten en pixels berekenen. Vertexverwerking draait voornamelijk om het coördinatensysteem. De GPU verwerkt geometrische taken door driedimensionale ruimte op het scherm te creëren en objecten daarin te laten bewegen.

Pixelverwerking is een complexer proces dat veel verwerkingskracht vereist. Op dit punt past de GPU verschillende lagen toe, past hij effecten toe en doet hij er alles aan om complexe texturen en realistische graphics te creëren. Zodra beide processen zijn verwerkt, wordt het resultaat overgebracht naar het scherm van uw smartphone of tablet. Dit alles gebeurt miljoenen keren per seconde terwijl je een game speelt.

Natuurlijk is dit verhaal over de werking van de GPU erg oppervlakkig, maar het is voldoende om een ​​goed algemeen idee te krijgen en een gesprek te kunnen voeren met vrienden of een elektronicaverkoper, of te begrijpen waarom je apparaat zo heet wordt tijdens de spel. Later zullen we zeker de voordelen van bepaalde GPU's bespreken bij het werken met specifieke games en taken.

Gebaseerd op materialen van AndroidPit

Waar kijken we als eerste naar bij het kiezen van een smartphone? Laten we de kosten even buiten beschouwing, dan kiezen we uiteraard allereerst voor het schermformaat. Dan zijn we geïnteresseerd in de camera, de hoeveelheid RAM, het aantal cores en de processorfrequentie. En hier is alles eenvoudig: hoe meer, hoe beter, en hoe minder, hoe slechter. Moderne apparaten gebruiken echter ook een grafische processor, ook wel GPU genoemd. Wat het is, hoe het werkt en waarom het belangrijk is om erover te weten, vertellen we je hieronder.

GPU (Graphics Processing Unit) is een processor die exclusief is ontworpen voor grafische verwerking en drijvende-kommaberekeningen. Het is voornamelijk bedoeld om de werklast van de hoofdprocessor te verlichten als het gaat om veeleisende games of applicaties met 3D-graphics. Wanneer je een game speelt, is de GPU verantwoordelijk voor het maken van afbeeldingen, kleuren en texturen, terwijl de CPU kunstmatige intelligentie of spelmechanische berekeningen kan verwerken.

De GPU-architectuur verschilt niet veel van de CPU-architectuur, maar is meer geoptimaliseerd voor efficiënte grafische verwerking. Als je de GPU dwingt andere berekeningen uit te voeren, zal hij zijn slechtste kant laten zien.

Videokaarten die afzonderlijk zijn aangesloten en op hoog vermogen werken, bestaan ​​alleen in laptops en desktopcomputers. Als we het hebben over Android-apparaten, dan hebben we het over geïntegreerde grafische afbeeldingen en wat we SoC (System-on-a-Chip) noemen. De Snapdragon 810-processor integreert bijvoorbeeld de Adreno 430 GPU. Het geheugen dat hij gebruikt voor zijn werking is systeemgeheugen, terwijl grafische kaarten in desktop-pc's geheugen toegewezen krijgen dat alleen voor hen beschikbaar is. Toegegeven, er zijn ook hybride chips.

Terwijl een CPU met meerdere kernen op hoge snelheden draait, heeft een GPU veel processorkernen die op lage snelheden draaien en weinig meer doen dan hoekpunten en pixels berekenen. Vertexverwerking draait voornamelijk om het coördinatensysteem. De GPU verwerkt geometrische taken door driedimensionale ruimte op het scherm te creëren en objecten daarin te laten bewegen.

Pixelverwerking is een complexer proces dat veel verwerkingskracht vereist. Op dit punt past de GPU verschillende lagen toe, past hij effecten toe en doet hij er alles aan om complexe texturen en realistische graphics te creëren. Zodra beide processen zijn verwerkt, wordt het resultaat overgebracht naar het scherm van uw smartphone of tablet. Dit alles gebeurt miljoenen keren per seconde terwijl je een game speelt.

Natuurlijk is dit verhaal over de werking van de GPU erg oppervlakkig, maar het is voldoende om een ​​goed algemeen idee te krijgen en een gesprek te kunnen voeren met vrienden of een elektronicaverkoper, of te begrijpen waarom je apparaat zo heet wordt tijdens de spel. Later zullen we zeker de voordelen van bepaalde GPU's bespreken bij het werken met specifieke games en taken.

Gebaseerd op materialen van AndroidPit

Wat is een grafische processor en hoe werkt deze Ernest Vasilevsky

androidinsider.ru

Wat is de GPU in uw computer?

Goede dag voor iedereen, mijn lieve vrienden en gasten van mijn blog. Vandaag wil ik het graag hebben over de hardware van onze computers. Vertel me alsjeblieft, heb je gehoord van zoiets als een GPU? Het blijkt dat veel mensen zo'n afkorting voor het eerst horen.

Hoe triviaal het ook mag klinken, tegenwoordig leven we in het tijdperk van computertechnologie, en soms is het moeilijk om iemand te vinden die geen idee heeft hoe een computer werkt. Het is dus bijvoorbeeld voldoende dat iemand zich realiseert dat de computer werkt dankzij de centrale verwerkingseenheid (CPU).

Iemand zal verder gaan en ontdekken dat er ook een bepaalde GPU is. Zo'n ingewikkelde afkorting, maar vergelijkbaar met de vorige. Laten we dus eens kijken wat een GPU in een computer is, hoe ze zijn en welke verschillen deze heeft met de CPU.

style="display:block" data-ad-client="ca-pub-4066320629007052" data-ad-slot="5193769527"

data-ad-format = "auto">

Weinig verschil

Simpel gezegd: GPU is een grafische verwerkingseenheid, soms wordt het een videokaart genoemd, wat gedeeltelijk een vergissing is. Een videokaart is een kant-en-klaar componentapparaat, inclusief de processor die we beschrijven. Het kan opdrachten verwerken om driedimensionale afbeeldingen te genereren. Het is vermeldenswaard dat dit hiervoor een sleutelelement is; de prestaties en verschillende mogelijkheden van het videosysteem als geheel zijn afhankelijk van de kracht ervan.

De GPU heeft zijn eigen onderscheidende kenmerken vergeleken met zijn CPU-tegenhanger. Het belangrijkste verschil ligt in de architectuur waarop het is gebouwd. De GPU-architectuur is zo ontworpen dat je grote hoeveelheden data efficiënter verwerkt. De CPU verwerkt op zijn beurt gegevens en taken opeenvolgend. Uiteraard moet deze functie niet als een minpunt worden opgevat.

Soorten GPU's

Er zijn niet veel soorten grafische processors, een daarvan wordt discreet genoemd en wordt op afzonderlijke modules gebruikt. Zo'n chip is behoorlijk krachtig, dus er is een koelsysteem van radiatoren voor nodig, koelers kunnen bijzonder belast worden; er kan vloeistofkoeling worden gebruikt.

Tegenwoordig kunnen we een belangrijke stap waarnemen in de ontwikkeling van grafische componenten, dit komt door de opkomst van een groot aantal soorten GPU's. Als voorheen een computer moest worden uitgerust met afzonderlijke grafische afbeeldingen om toegang te krijgen tot games of andere grafische applicaties, kan deze taak nu worden uitgevoerd door de IGP - geïntegreerde grafische processor.

Bijna elke computer (met uitzondering van servers), of het nu een laptop of een desktopcomputer is, is nu uitgerust met geïntegreerde grafische afbeeldingen. De videoprocessor zelf is ingebouwd in de CPU, wat het stroomverbruik en de prijs van het apparaat zelf aanzienlijk kan verminderen. Bovendien kunnen dergelijke afbeeldingen van andere subtypen zijn, bijvoorbeeld: discreet of hybride-discreet.

De eerste optie betreft de duurste oplossing: solderen op het moederbord of een aparte mobiele module. De tweede optie wordt niet voor niets hybride genoemd; het maakt in feite gebruik van een klein videogeheugen dat op het bord is gesoldeerd, maar kan het tegelijkertijd uitbreiden met behulp van RAM.

Dergelijke grafische oplossingen kunnen uiteraard niet concurreren met volwaardige discrete videokaarten, maar ze laten al behoorlijk goede prestaties zien. In ieder geval hebben ontwikkelaars ruimte om te streven; misschien is deze oplossing de toekomst.

Nou, dat is waarschijnlijk alles wat ik heb. Ik hoop dat je het artikel leuk vond! Ik kijk ernaar uit je weer te zien op mijn blog. Veel geluk voor jou. Tot ziens!

koskomp.ru

Ingebouwde grafische processor - waarom is dit nodig?


Wat zijn geïntegreerde grafische afbeeldingen?

De geïntegreerde grafische processor speelt een belangrijke rol voor zowel gamers als niet veeleisende gebruikers.

De kwaliteit van games, films, het bekijken van video's op internet en afbeeldingen hangt ervan af.


GPU is ingebouwd in het moederbord

De grafische processor is geïntegreerd in het moederbord van de computer - zo ziet een geïntegreerde grafische processor eruit.

In de regel gebruiken ze het om de noodzaak voor het installeren van een grafische adapter - een videokaart - weg te nemen.

Deze technologie helpt de kosten van het eindproduct te verlagen. Vanwege de compactheid en het lage energieverbruik van dergelijke processors worden ze bovendien vaak geïnstalleerd in laptops en desktopcomputers met een laag vermogen.

Geïntegreerde grafische processors hebben deze niche dus zo goed gevuld dat 90% van de laptops in de Amerikaanse winkelschappen zo'n processor hebben.

In plaats van een gewone videokaart gebruiken geïntegreerde grafische kaarten vaak het RAM-geheugen van de computer zelf als hulpmiddel.

Het is waar dat deze oplossing de prestaties van het apparaat enigszins beperkt. Toch gebruiken de computer zelf en de grafische processor dezelfde geheugenbus.

Deze "buurt" heeft dus invloed op de uitvoering van taken, vooral bij het werken met complexe graphics en tijdens het spelen van games.

Terug naar menu

Soorten GPU's

Geïntegreerde grafische afbeeldingen hebben drie groepen:

  1. Grafisch geheugen met gedeeld geheugen is een apparaat gebaseerd op gedeeld geheugenbeheer met de hoofdprocessor. Dit verlaagt de kosten aanzienlijk, verbetert het energiebesparende systeem, maar verslechtert de prestaties. Dienovereenkomstig zijn geïntegreerde grafische processors van dit type waarschijnlijk niet geschikt voor degenen die met complexe programma's werken.
  2. Discrete grafische kaart - een videochip en een of twee videogeheugenmodules worden op het moederbord gesoldeerd. Dankzij deze technologie wordt de beeldkwaliteit aanzienlijk verbeterd en wordt het ook mogelijk om met de beste resultaten met 3D-graphics te werken. Het is waar dat je hiervoor veel moet betalen, en als je in alle opzichten op zoek bent naar een krachtige processor, kunnen de kosten ongelooflijk hoog zijn. Bovendien zal uw elektriciteitsrekening iets stijgen: het stroomverbruik van afzonderlijke GPU's is hoger dan normaal.
  3. Hybride discrete graphics is een combinatie van de twee voorgaande typen, die zorgden voor de creatie van de PCI Express-bus. Toegang tot het geheugen vindt dus zowel via het gesoldeerde videogeheugen als via het RAM plaats. Met deze oplossing wilden fabrikanten een compromisoplossing creëren, maar de tekortkomingen worden nog steeds niet weggenomen.
terug naar menu

In de regel houden grote bedrijven - Intel, AMD en Nvidia - zich bezig met de productie en ontwikkeling van geïntegreerde grafische processors, maar ook veel kleine ondernemingen zijn op dit gebied betrokken.

Gebruikers beschouwen videokaarten van AMD als krachtiger dan die van Intel. Maar waarom vond Intel het niet leuk? Als je de statistieken gelooft, zijn ze leiders op het gebied van de verkoop van microcircuits.

Terug naar menu

Intel GPU's

Dit bedrijf begon geïntegreerde videokaarten te gebruiken met de release van Westmere.

Daarna werden HD Graphics alleen in Pentium en Celeron geïnstalleerd. Sinds de Haswell-generatie is een nieuwe classificatie van chips ontwikkeld: 4 - Haswell, 5 - Broadwell. Maar met de Skylake-generatie is de etikettering opnieuw veranderd.

Markering is onderverdeeld in vier typen:

  • P - uitgeschakelde videokern;
  • C - speciaal ontworpen voor LGA;
  • R - voor BGA;
  • H - ontworpen voor mobiele apparaten (Iris Pro).
terug naar menu

Eén van Intel's nieuwste ontwikkelingen op het gebied van geïntegreerde videokaarten is de Intel HD Graphics 530.

De fabrikanten positioneren het als de optimale oplossing, zelfs voor de krachtigste games, maar de realiteit is niet zo optimistisch.

De nieuwe videokaart is gebaseerd op de grafische kern van Skylake. Het is op zijn beurt gebouwd op basis van een of meerdere modules, die elk uit drie secties bestaan.

Ze verbinden 8 executor-apparaten die grafische gegevens verwerken en bevatten bovendien speciale modules die werken met geheugen- en textuursamplers.

Bovendien heeft de grafische kern een niet-modulair deel, dat enkele functies verbetert en toevoegt.

Nu werkt Intel rechtstreeks aan het vergroten van de kracht van zijn producten en het toevoegen van nieuwe functies.

Zo lanceerde de GPU een nieuwe technologie, Lossless Render Target Compression, die videoweergave mogelijk maakt zonder noemenswaardig kwaliteitsverlies.

Daarnaast heeft het bedrijf gewerkt aan het verbeteren van de prestaties van geïntegreerde processors in games met 3-11%.

De ontwikkelaars hebben ook gewerkt aan de kwaliteit van het afspelen van video: de geïntegreerde videokaart ondersteunt ook 4K-resolutie.

Wat games betreft, de meeste zullen prima werken, maar voor fanatieke gamers is de AMD 10 nog steeds het bekijken waard.

Hun grafische prestaties overtreffen aanzienlijk die van HD Graphics 530. De HD Graphics 530 videokern is dus vooral geschikt voor niet veeleisende online games en kan uiteraard ook gewone minigames aan.

Terug naar menu

AMD GPU's

AMD-processors met een geïntegreerde grafische kern zijn vrijwel directe concurrenten van Intel.

De concurrentie is uiteraard gericht op het bieden van de beste prijs-kwaliteitverhouding. Vreemd genoeg blijft AMD nog steeds achter op zijn rivaal, die een groter omzetaandeel heeft.

AMD-processors presteren echter soms veel beter.

Toegegeven, de situatie is compleet anders als het gaat om discrete processors. Ongeveer 51% is het aandeel van AMD. Dus als u geïnteresseerd bent in discrete graphics, moet u op dit bedrijf letten.

Een van de nieuwste ontwikkelingen van AMD, een goede concurrent van de Intel HD Graphics 530, is de AMD A10-7850K.

Terug naar menu

Dit type geïntegreerde grafische kaart behoort tot het hybride type. De Kaveri-kern herbergt 8 asynchrone rekenmotoren. Bovendien hebben ze gelijke toegang tot systeemgeheugen met x86-cores.

Met HSA voeren rekenclusters met name hun eigen processen uit, onafhankelijk van andere kernen.

Zo beschikt de A10-7850K over 4 rekenkernen en 8 grafische clusters.

Om deze reden noemt AMD deze ontwikkeling een 12-core processor. Het is waar dat niet alles zo soepel verloopt: 12 kernen zijn niet gelijkwaardig, ze vereisen gespecialiseerde softwarecodes.

Het besturingssysteem zelf zal geen acht extra cores opmerken, maar dezelfde 4 x86 cores.

Over het algemeen bederft de x86-component enigszins de hele indruk.

Zo heeft de kloksnelheid flink geleden. En zo erg zelfs dat zelfs het vorige model sterker zal zijn. Misschien zal de fabrikant deze parameter in de toekomst verfijnen. Toch verbeterde minstens 4 GHz de prestaties en prestaties.

Op dit moment is de gemiddelde frequentie van deze geïntegreerde grafische kaart tijdens zware werkbelasting 3,8 GHz. In normale positie bereikt het 1,7 GHz.

Dit discrete grafische model is dus redelijk krachtig, maar ook iets goedkoper dan zijn Intel-tegenhanger. Zo'n apparaat kan games aan, maar ook werken met driedimensionale afbeeldingen.

Terug naar menu

Geïntegreerde videokaartuitgangen

Het inschakelen van geïntegreerde grafische afbeeldingen is een fluitje van een cent. Meestal geeft de monitor zelf het beeld weer van de erop aangesloten videokaart.

Toegegeven, deze automatische modus werkt niet altijd. Dan moet je het probleem zelf oplossen - verander de instellingen in het BIOS.

Dit is niet moeilijk om te doen. Zoek eerst naar Primary Display of Init Display. Als je zoiets niet ziet, zoek dan naar Onboard, PCI, AGP of PCI-E (het hangt allemaal af van de bussen die op het moederbord zijn geïnstalleerd).

Door bijvoorbeeld PCI-E te kiezen, schakel je de PCI-Express videokaart in en schakel je de ingebouwde geïntegreerde uit.

Om de geïntegreerde videokaart in te schakelen, moet u dus de juiste parameters in het BIOS vinden. Vaak verloopt het activeringsproces automatisch.

Terug naar menu

Hoe de ingebouwde processor in te schakelen

Het is beter om dit in het BIOS uit te schakelen. Dit is de eenvoudigste en meest pretentieloze optie, geschikt voor bijna alle pc's. De enige uitzonderingen zijn enkele laptops.

Zoek opnieuw naar Randapparatuur of Geïntegreerde Randapparatuur in het BIOS als u op een desktop werkt.

Bij laptops is de naam van de functie anders, en niet overal hetzelfde. Zoek dus gewoon iets dat met afbeeldingen te maken heeft. De benodigde opties kunnen bijvoorbeeld in de secties Geavanceerd en Configuratie worden geplaatst.

Het uitschakelen gebeurt ook op verschillende manieren. Soms is het voldoende om gewoon op ‘Uitgeschakeld’ te klikken en de PCI-E-videokaart als eerste in de lijst te plaatsen.

Als u een laptopgebruiker bent, hoeft u zich geen zorgen te maken als u a priori geen geschikte optie kunt vinden; het kan zijn dat u niet over een dergelijke functie beschikt. Voor alle andere apparaten zijn de regels eenvoudig: hoe het BIOS er ook uitziet, de vulling is hetzelfde.

Als je twee videokaarten hebt en ze worden allebei weergegeven in Apparaatbeheer, dan is de zaak vrij eenvoudig: klik met de rechtermuisknop op een ervan en selecteer 'uitschakelen'. Houd er echter rekening mee dat het display donker kan worden. Dit zal waarschijnlijk het geval zijn bij laptops.

Dit is echter ook een oplosbaar probleem. Het volstaat om de computer opnieuw op te starten of een tweede monitor aan te sluiten via HDMI of VGA.

Voer alle volgende instellingen erop uit. Als deze methode niet werkt, kunt u uw acties ongedaan maken in de veilige modus. U kunt ook uw toevlucht nemen tot de vorige methode: via het BIOS.

Twee programma's - NVIDIA Control Center en Catalyst Control Center - configureren het gebruik van een specifieke videoadapter.

Ze zijn het meest pretentieloos vergeleken met de andere twee methoden: het is onwaarschijnlijk dat het scherm wordt uitgeschakeld en je zult ook niet per ongeluk de instellingen via het BIOS verpesten.

Voor NVIDIA bevinden alle instellingen zich in het 3D-gedeelte.

U kunt uw favoriete videoadapter selecteren voor het gehele besturingssysteem en voor specifieke programma's en games.

In Catalyst-software bevindt een identieke functie zich in de optie "Power" in het subitem "Switchable Graphics".

Schakelen tussen GPU's is dus een fluitje van een cent.

Er zijn verschillende methoden, met name via programma's en via BIOS. Het in- of uitschakelen van een of andere geïntegreerde grafische kaart kan gepaard gaan met enkele fouten, voornamelijk gerelateerd aan de afbeelding.

Het scherm kan donker worden of eenvoudigweg vervormd raken. Niets zou de bestanden op de computer zelf moeten beïnvloeden, tenzij u op iets in het BIOS klikte.

Terug naar menu

Heeft u geïntegreerde grafische afbeeldingen nodig?

Als gevolg hiervan is er veel vraag naar geïntegreerde grafische processors vanwege hun lage kosten en compactheid.

U zult hiervoor moeten betalen met het prestatieniveau van de computer zelf.

In sommige gevallen zijn geïntegreerde grafische afbeeldingen eenvoudigweg noodzakelijk - discrete processors zijn ideaal voor het werken met driedimensionale afbeeldingen.

Bovendien zijn de marktleiders Intel, AMD en Nvidia. Elk van hen biedt zijn eigen grafische versnellers, processors en andere componenten.

De nieuwste populaire modellen zijn Intel HD Graphics 530 en AMD A10-7850K. Ze zijn behoorlijk functioneel, maar hebben enkele gebreken. Dit geldt in het bijzonder voor het vermogen, de prestaties en de kosten van het eindproduct.

U kunt een grafische processor met een ingebouwde kern zelf in- of uitschakelen via BIOS, hulpprogramma's en verschillende programma's, maar de computer zelf kan dit eenvoudig voor u doen. Het hangt allemaal af van welke videokaart op de monitor zelf is aangesloten.

geek-nose.com

Grafische processor (functies van werking en structuur)

Moderne videokaarten zijn vanwege de enorme rekenkracht die ze nodig hebben bij het werken met grafische afbeeldingen uitgerust met een eigen commandocentrum, oftewel een grafische processor.

Dit werd gedaan om de centrale processor te 'ontladen', die vanwege zijn brede 'toepassingsbereik' simpelweg niet kan voldoen aan de eisen die de moderne game-industrie stelt.

Grafische verwerkingseenheden (GPU's) doen qua complexiteit absoluut niet onder voor centrale processors, maar vanwege hun beperkte specialisatie kunnen ze effectiever omgaan met de taak van het verwerken van afbeeldingen, het construeren van een afbeelding en het vervolgens weergeven ervan op de monitor.

Als we het over de parameters hebben, lijken deze voor GPU's sterk op centrale processors. Dit zijn parameters die iedereen al kent, zoals de microarchitectuur van de processor, de kloksnelheid van de kern en het productieproces. Maar ze hebben ook vrij specifieke kenmerken. Een belangrijk kenmerk van een GPU is bijvoorbeeld het aantal pixelpijplijnen. Deze eigenschap bepaalt het aantal pixels dat per GPU-klokcyclus wordt verwerkt. Het aantal van deze pijpleidingen kan variëren, in de grafische chips uit de Radeon HD 6000-serie kan hun aantal bijvoorbeeld 96 bereiken.

De pixelpijplijn houdt zich bezig met het berekenen van elke volgende pixel van de volgende afbeelding, rekening houdend met de kenmerken ervan. Om het weergaveproces te versnellen, worden verschillende parallel lopende pijplijnen gebruikt die verschillende pixels van dezelfde afbeelding berekenen.

Ook beïnvloedt het aantal pixelpijplijnen een belangrijke parameter: de vulsnelheid van de videokaart. De vulsnelheid van een videokaart kan worden berekend door de kernfrequentie te vermenigvuldigen met het aantal pijpleidingen.

Laten we bijvoorbeeld de opvullingssnelheid berekenen voor de AMD Radeon HD 6990-videokaart (Fig. 2). De GPU-kernfrequentie van deze chip is 830 MHz en het aantal pixelpijplijnen is 96. Met eenvoudige wiskundige berekeningen (830x96) komen we tot de conclusie dat de opvullingssnelheid gelijk zal zijn aan 57,2 Gpixel/s.

Naast pixelpijplijnen bevinden zich in elke pijplijn ook zogenaamde textuureenheden. Hoe meer textuureenheden, hoe meer texturen er in één doorgang van de pijplijn kunnen worden toegepast, wat ook de algehele prestaties van het hele videosysteem beïnvloedt. In de bovengenoemde AMD Radeon HD 6990-chip is het aantal texture sampling-eenheden 32x2.

In grafische processors kan een ander type pijplijn worden onderscheiden: hoekpuntpijplijnen, zij zijn verantwoordelijk voor het berekenen van de geometrische parameters van een driedimensionaal beeld.

Laten we nu eens kijken naar het stapsgewijze, enigszins vereenvoudigde proces van pijplijnberekening, gevolgd door beeldvorming:

1e etappe. Gegevens over textuurhoekpunten gaan naar hoekpuntpijplijnen, die geometrieparameters berekenen. In dit stadium is het blok “T&L” (Transform & Lightning) verbonden. Dit blok is verantwoordelijk voor de belichting en beeldtransformatie in driedimensionale scènes. Gegevensverwerking in de vertex-pijplijn wordt uitgevoerd door het vertex-shaderprogramma.