Wat is gpu en cpu in een computer. Wat is het verschil tussen CPU en GPU? GPU is geen videokaart

We weten allemaal dat een videokaart en een processor enigszins verschillende taken hebben, maar weet je ook waarin ze van elkaar verschillen? interne structuur? Zoals CPU centrale verwerkingseenheid) en GPU (Engels - grafische verwerkingseenheid) zijn processors, en ze hebben veel gemeen, maar ze zijn ontworpen om te presteren diverse taken. In dit artikel leert u hier meer over.

CPU

De hoofdtaak van de CPU, sprekend in eenvoudige woorden, is de uitvoering van een reeks instructies in de kortst mogelijke tijd. De CPU is ontworpen om meerdere van dergelijke ketens tegelijkertijd uit te voeren, of om een ​​stroom instructies in meerdere te splitsen en, na ze afzonderlijk te hebben uitgevoerd, weer samen te voegen tot één, in de juiste volgorde. Elke instructie in een thread is afhankelijk van de instructies die erop volgen. Daarom heeft de CPU zo weinig uitvoeringseenheden en ligt de volledige nadruk op uitvoeringssnelheid en het verminderen van downtime, wat wordt bereikt met behulp van cachegeheugen en een pijplijn.

GPU

De belangrijkste functie van de GPU is het weergeven van 3D-graphics en visuele effecten Daarom is alles er een beetje eenvoudiger in: het moet polygonen als invoer ontvangen en na het uitvoeren van de nodige wiskundige en logische operaties, pixelcoördinaten uitvoeren. In wezen GPU-werking komt neer op het uitvoeren van een groot aantal taken, onafhankelijk van elkaar, daarom bevat het een grote hoeveelheid geheugen, maar niet zo snel als in de CPU, en een groot aantal uitvoeringseenheden: in moderne GPU's zijn er 2048 of meer van hen, terwijl de CPU er 48 kan bereiken, maar meestal ligt hun aantal in het bereik van 2-8.

Belangrijkste verschillen

De CPU verschilt voornamelijk van de GPU in de manier waarop deze toegang krijgt tot het geheugen. In de GPU is het coherent en gemakkelijk voorspelbaar: als een textuur-texel uit het geheugen wordt gelezen, zal na een tijdje de beurt aan naburige texels komen. De situatie is vergelijkbaar met opnemen: een pixel wordt naar de framebuffer geschreven en na een paar klokcycli wordt de pixel ernaast opgenomen. Bovendien heeft de GPU, in tegenstelling tot processors voor algemeen gebruik, eenvoudigweg geen cachegeheugen nodig groot formaat, en texturen vereisen slechts 128-256 kilobytes. Bovendien verbruiken videokaarten meer snel geheugen, en als gevolg daarvan heeft de GPU vele malen meer bandbreedte beschikbaar, wat ook erg belangrijk is voor parallelle berekeningen die met enorme datastromen werken.

Er zijn veel verschillen in multithreading-ondersteuning: de CPU voert 1 2 rekenthreads per één processor kern, en de GPU kan enkele duizenden threads per multiprocessor ondersteunen, waarvan er meerdere op de chip zitten! En als het overschakelen van de ene thread naar de andere honderden klokcycli kost voor de CPU, dan schakelt de GPU meerdere threads in één klokcyclus.

In een CPU wordt het grootste deel van het chipgebied ingenomen door instructiebuffers, hardware-vertakkingsvoorspellingen en enorme hoeveelheden cachegeheugen, terwijl in een GPU het grootste deel van het gebied wordt ingenomen door uitvoeringseenheden. Het hierboven beschreven apparaat wordt hieronder schematisch weergegeven:

Verschil in rekensnelheid

Als de CPU een soort ‘baas’ is die beslissingen neemt in overeenstemming met de instructies van het programma, dan is de GPU een ‘werknemer’ die een groot aantal soortgelijke berekeningen uitvoert. Het blijkt dat als je onafhankelijke protozoa aan de GPU voedt wiskundige problemen, dan zal hij het veel sneller aankunnen dan CPU. Dit verschil wordt met succes gebruikt door Bitcoin-mijnwerkers.

Mijnbouw Bitcoin

De essentie van mijnbouw is dat computers zich in verschillende punten Aarde, los wiskundige problemen op, waardoor bitcoins ontstaan. Alle Bitcoin-overdrachten in de keten worden doorgegeven aan mijnwerkers, wiens taak het is om uit miljoenen combinaties een enkele hash te selecteren die geschikt is voor alle nieuwe transacties en geheime sleutel, wat ervoor zorgt dat de mijnwerker een beloning van 25 bitcoins per keer ontvangt. Omdat de rekensnelheid rechtstreeks afhangt van het aantal uitvoeringseenheden, blijkt dat GPU's veel beter geschikt zijn voor uitvoering van dit type taken dan de CPU. Hoe meer kwantiteit uitgevoerde berekeningen, hoe groter de kans op het ontvangen van bitcoins. Het ging zelfs zo ver dat er hele boerderijen met videokaarten werden gebouwd.

Hallo jongens. Vandaag zullen we het hebben over GPU-snelheid - ik zal je in eenvoudige woorden vertellen wat het is. Laten we eerst eens kijken naar de naam zelf: GPU is een grafische processor of, simpel gezegd, je videokaart, zoals het staat voor Graphics Processing Unit. Het tweede woord is Snelheid en het betekent snelheid. Wat is de conclusie? GPU Snelheid betekent de snelheid van de videokaart.

Maar wat betekent videokaartsnelheid? Dus ik dacht... snelheid, alsof zoiets niet bestaat. Er is tenminste een videofrequentie GPU. En hoe hoger deze frequentie, hoe sneller de videokaart werkt.

Ik ging naar internet om deze situatie een beetje te verduidelijken en... dit is wat ik ontdekte, kijk, ik vond deze foto:

De afbeelding toont een eigen programma van Asus, dit is GPU Tweak II. En zoals ik het begrijp, kun je met het programma van videomodus wisselen. En kijk, op de foto staat 122%, toch? Wat betekent dit? Dit betekent dat de videokaart 22% productiever werkt dan normaal. Dat wil zeggen, een soort versneller voor jezelf. En rechts zien we meteen de temperatuur zodat we kunnen zien hoe het daar gaat, want tijdens het overklokken loopt de temperatuur nog steeds op.

Dat wil zeggen, het eerste echte geval waarin GPU-snelheid kan optreden is een eigen programma voor het instellen van video, meestal heeft het allerlei modi, er is gamen, kantoor, stille modus, en misschien nog wat meer. En het lijkt erop dat je zelfs je eigen modus kunt creëren.

Hier vond ik nog een foto, het is nog steeds hetzelfde programma, maar het kost 137%:

En bovenaan zie je dat de Gaming Mode-modus is geselecteerd, dat wil zeggen de gamemodus.

Is GPU-snelheid 100 normaal?

Dus jongens, ik heb een aantal berichten op internet gezien, ze vragen GPU Speed ​​100, is dit normaal of niet? Nou, de vraag hier is mij niet helemaal duidelijk, en ik moet toegeven dat ik videokaarten niet echt begrijp. Maar er is een serieuze reden waarom ik besloot te schrijven.

Dus kijk, bij inactiviteit kan de videokaart ook de frequentie verlagen, net zoals de processor dat kan doen? Ik heb op internet gekeken en het lijkt erop dat hij het kan. Maar wat betekent dit als de videokaart in rusttoestand op 100 procent wordt geladen? Maar hier jongens, het is niet zo eenvoudig. Ik kan het mis hebben, maar er zijn niet veel programma's die de videokaart laden, en niet, zoals gewoonlijk, de processor. Dat wil zeggen: als een programma stroom nodig heeft, heeft het meestal zijn eigen processor nodig, toch? Maar niet de videokaart, ik bedoel zeker niet de games... als de game de videokaart laadt, dan vind ik dat volkomen normaal. Maar weet je waar ik op doel? Nou, het punt is: het zou... een mijnwerker kunnen zijn. Er zijn virussen die de kracht van video voor hun eigen doeleinden gebruiken. Sommigen doen het schaamteloos en daarom valt het meteen op, terwijl anderen slechts een klein beetje prestatie gebruiken en het zo maken dat het onmerkbaar is.

Nogmaals - dat wil zeggen dat het virus de processor niet gebruikt, zoals de meeste virussen en reguliere programma’s, en in de eerste plaats is het video. Of beter gezegd: de grafische processor. Dus ze minen daar iets, zoals ze minen een soort bitcoins, ze verdienen geld of zoiets, het is niet duidelijk. U kunt op internet zoeken naar mijnwerkers, dergelijke virussen zijn niet ongewoon, er zijn veel berichten op internet over een proces dat de computer zonder reden laadt.

Als de videokaart tijdens inactiviteit voor 100 procent wordt geladen, is het eerste dat ik zou doen de computer over het algemeen controleren op virussen. Om dit te doen, raad ik u aan het hulpprogramma Dr.Web CureIt te gebruiken, u kunt het hier downloaden (dit is een off-site):

Ik kan het trouwens mis hebben... maar kijk eens naar de foto:

Zie je, waar GPU-snelheid is, is het 100%, maar waar VRAM-gebruik is, is het 1%. Ik herhaal dat ik videokaarten niet echt begrijp, maar het lijkt mij dat dit een vreemde situatie is wanneer de grafische processor op 100% is geladen, maar het videogeheugen (dit is VRAM-gebruik) helemaal niet wordt gebruikt. Deze situatie lijkt mij verdacht.

Wat is ventilatorsnelheid GPU?

Ventilatorsnelheid betekent ventilatorsnelheid, dit verwijst naar koeling. En als in Fan Snelheid GPU Er worden percentages weergegeven, dit betekent hoeveel het koelsysteem van de videokaart werkt. Het zijn misschien geen percentages, maar RPM is het aantal ventilatoromwentelingen. Bijvoorbeeld een programma van AMD Radeon-instellingen en hier is er zo'n indicator, hoewel alleen de ventilatorsnelheid, zonder GPU, in het algemeen, kijk:

Maar het programma is weer GPU Tweak II en er is Fan Speed ​​en, zoals ik het begrijp, in procenten aan te passen:

Zo zijn de zaken jongens, ik hoop dat de informatie nuttig voor je was, maar als er iets mis is, dan spijt me dat! Veel geluk voor jou en moge alles goed met je gaan!

Grafische verwerkingseenheid (GPU) - lichtend voorbeeld hoe technologie die is ontworpen voor grafische verwerkingstaken zich heeft verspreid naar het niet-gerelateerde gebied van high-performance computing. Moderne GPU's vormen het hart van veel van de meest complexe projecten op dit gebied. machinaal leren en data-analyse. In ons overzichtsartikel bekijken we hoe Selectel-klanten GPU-hardware gebruiken en denken we na over de toekomst van datawetenschap en computerapparatuur met docenten van de Yandex School of Data Science.

GPU's zijn de afgelopen tien jaar veel veranderd. Naast de enorme toename van de productiviteit was er sprake van een indeling van apparaten naar soort gebruik. Zo worden videokaarten voor thuisspelsystemen en -installaties in een aparte richting toegewezen virtuele realiteit. Er verschijnen krachtige, zeer gespecialiseerde apparaten: voor serversystemen is een van de toonaangevende versnellers de NVIDIA Tesla P100, speciaal ontworpen voor industrieel gebruik in datacentra. Naast GPU's wordt er actief onderzoek gedaan op het gebied van het creëren van een nieuw type processor dat de werking van de hersenen nabootst. Een voorbeeld is het Kirin 970-platform met één chip met een eigen neuromorfe processor voor taken die verband houden met neurale netwerken en beeldherkenning.

Deze situatie doet ons nadenken over de volgende vragen:

  • Waarom is het vakgebied data-analyse en machine learning zo populair geworden?
  • Hoe GPU's de markt voor computerhardware gingen domineren intensief werk met gegevens?
  • Welk onderzoek op het gebied van data-analyse zal in de nabije toekomst het meest veelbelovend zijn?

Laten we proberen deze problemen op volgorde aan te pakken, te beginnen met de eerste eenvoudige videoprocessors en eindigend met moderne, krachtige apparaten.

GPU-tijdperk

Laten we eerst onthouden wat een GPU is. Grafische verwerkingseenheid is een grafische verwerkingseenheid die veel wordt gebruikt in desktop- en serversystemen. Onderscheidend kenmerk Dit apparaat is gericht op massaal parallel computergebruik. In tegenstelling tot GPU's is de architectuur van een andere computermodule, de CPU (Central Processor Unit), hiervoor ontworpen sequentiële verwerking gegevens. Als het aantal kernen in een gewone CPU in tientallen wordt gemeten, dan loopt het aantal in een GPU in de duizenden, wat beperkingen oplegt aan de soorten uitgevoerde opdrachten, maar hoge rekenprestaties biedt bij taken waarbij parallellisme betrokken is.

Eerste stappen

De ontwikkeling van videoprocessors in de vroege stadia hield nauw verband met de groeiende behoefte aan een aparte computerapparaat voor de verwerking van twee en 3D-afbeeldingen. Vóór de komst van afzonderlijke videocontrollercircuits in de jaren zeventig werd de beelduitvoer uitgevoerd door het gebruik van discrete logica, wat een effect had op het hogere stroomverbruik en de grote maten printplaten. Gespecialiseerde microschakelingen maakten het mogelijk om de ontwikkeling van apparaten die zijn ontworpen om met grafische afbeeldingen te werken in een aparte richting te scheiden.

De volgende revolutionaire gebeurtenis was de opkomst van een nieuwe klasse van meer complexe en multifunctionele apparaten- videoprocessors. In 1996 bracht 3dfx Interactive de Voodoo Graphics-chipset uit, die snel 85% van de speciale videomarkt veroverde en destijds de leider op het gebied van 3D-graphics werd. Na de serie slechte beslissingen management van het bedrijf, dat onder meer de aankoop van videokaartfabrikant STB omvatte, verloor 3dfx zijn leiderschap aan NVIDIA en ATI (later AMD), en werd in 2002 failliet verklaard.

Algemene GPU-computergebruik

In 2006 kondigde NVIDIA de productlijn uit de GeForce 8-serie aan, die een nieuwe klasse apparaten inluidde die zijn ontworpen voor computergebruik met algemene grafische verwerkingseenheden (GPGPU). Tijdens NVIDIA-ontwikkeling kwam tot het inzicht dat groter aantal Kernen die op lagere frequenties werken, zijn efficiënter voor parallelle werkbelastingen dan een klein aantal beter presterende kernen. Videoprocessors van de nieuwe generatie hebben parallelle computerondersteuning geboden, niet alleen voor het verwerken van videostreams, maar ook voor problemen die verband houden met machinaal leren, lineaire algebra, statistiek en andere wetenschappelijke of commerciële problemen.

Erkend leider

Verschillen in de initiële toewijzing van taken voor de CPU en GPU leidden tot aanzienlijke verschillen in de architectuur van de apparaten - hoge frequentie tegen multicore. Voor GPU's creëerde dit een computerpotentieel dat nu volledig wordt gerealiseerd. Videoprocessors met een indrukwekkend aantal zwakkere verwerkingskernen leveren uitstekend werk op het gebied van parallel computergebruik. De centrale processor, van oudsher ontworpen om sequentiële taken uit te voeren, blijft de beste in zijn vakgebied.

Laten we als voorbeeld de prestatiewaarden van de centrale en grafische processor vergelijken bij het uitvoeren van een veel voorkomende taak in neurale netwerken: matrixvermenigvuldiging hoge orde. We zullen de volgende apparaten selecteren om te testen:

  • CPU. Intel Xeon E5-2680 v4 - 28 threads met HyperThreading, 2,4 GHz;
  • GPU NVIDIA GTX 1080 – 2560 CUDA-kernen, 1607 MHz, 8 GB GDDR5X.

Laten we een voorbeeld gebruiken van het berekenen van matrixvermenigvuldiging op CPU en GPU in Jupyter Notebook:

In de bovenstaande code meten we de tijd die nodig was om matrices van dezelfde volgorde op de CPU of GPU te berekenen (“Execution Time”). De gegevens kunnen worden gepresenteerd in de vorm van een grafiek waarin de horizontale as de volgorde van de vermenigvuldigde matrices weergeeft, en de verticale as de uitvoeringstijd in seconden:

De oranje gemarkeerde grafieklijn toont de tijd die nodig is om gegevens in normaal RAM te creëren, deze over te brengen naar GPU-geheugen, en daaropvolgende berekeningen. De groene lijn toont de tijd die nodig is om gegevens te berekenen die al in het videokaartgeheugen zijn gegenereerd (zonder overdracht vanuit RAM). Blauw geeft de teltijd op de CPU weer. Matrices met een orde van minder dan 1000 elementen worden in vrijwel dezelfde tijd op de GPU en CPU vermenigvuldigd. Het prestatieverschil is duidelijk zichtbaar bij matrices groter dan 2000 in 2000, wanneer de rekentijd op de CPU naar 1 seconde springt, terwijl de GPU dicht bij nul blijft.

Complexer en praktische problemen worden efficiënter opgelost op een apparaat met GPU's dan zonder. Omdat de problemen die onze klanten oplossen met GPU-hardware zo gevarieerd zijn, hebben we besloten uit te zoeken wat de meest populaire gebruiksscenario's zijn.

Wie in Selectel leeft goed met een GPU?

De eerste optie die meteen in je opkomt en de juiste gok blijkt te zijn, is mijnbouw, maar het is interessant om op te merken dat sommigen het gebruiken als een hulpmanier om de apparatuur tot het “maximum” te laden. In het geval van het huren van een speciale server met videokaarten, wordt de tijd zonder werklast gebruikt om cryptocurrencies te minen waarvoor geen gespecialiseerde installaties (farms) nodig zijn om deze te verkrijgen.

Taken met betrekking tot grafische verwerking en weergave zijn tot op zekere hoogte al klassiek geworden en vinden steevast hun plaats op Selectel-servers met grafische versnellers. Door gebruik te maken van hoogwaardige apparatuur voor dergelijke taken kunt u meer krijgen effectieve oplossing dan het organiseren van speciale werkstations met videokaarten.

Tijdens het gesprek met onze klanten ontmoetten we ook vertegenwoordigers van de Yandex School of Data Analysis, die de kracht van Selectel gebruikt om testleeromgevingen te organiseren. We besloten meer te weten te komen over wat studenten en docenten doen, welke gebieden van machinaal leren nu populair zijn en wat de toekomst in petto heeft voor de industrie nadat jonge professionals zich hebben aangesloten bij werknemers van toonaangevende organisaties of hun eigen startups hebben gelanceerd.

Datawetenschap

Er is waarschijnlijk niemand onder onze lezers die de zinsnede “ neurale netwerken" of "machine learning". Als we marketingvariaties op het thema van deze woorden buiten beschouwing laten, komt het uiteindelijk neer op een opkomende en veelbelovende datawetenschap.

De moderne benadering van het werken met data omvat verschillende hoofdgebieden:

  • Grote gegevens ( Grote gegevens). Het grootste probleem op dit gebied is de enorme hoeveelheid informatie die niet op één server kan worden verwerkt. Vanuit het oogpunt van infrastructuurondersteuning is het noodzakelijk om de problemen van het creëren op te lossen clustersystemen, schaalbaarheid, fouttolerantie en gedistribueerde gegevensopslag;
  • Hulpbronintensieve taken (machine learning, diep leren en anderen). In dit geval is de kwestie van het gebruik van high-performance computing vereist grote hoeveelheid RAM- en CPU-bronnen. Bij dergelijke taken worden systemen met grafische versnellers actief gebruikt.

De grens tussen datagebieden vervaagt geleidelijk: de belangrijkste tools voor het werken met big data (Hadoop, Spark) introduceren ondersteuning voor GPU-computing, en machine learning-taken bestrijken nieuwe gebieden en vereisen grotere datavolumes. Docenten en studenten van de School of Data Analysis zullen ons helpen dit in meer detail te begrijpen.

Het belang ervan kan moeilijk worden overschat bekwaam werk met gegevens en passende implementatie van geavanceerde analytische hulpmiddelen. We hebben het niet eens over big data, hun ‘meren’ of ‘rivieren’, maar eerder over intelligente interactie met informatie. Wat er nu gebeurt is unieke situatie: We kunnen een grote verscheidenheid aan informatie verzamelen en geavanceerde tools en diensten gebruiken voor diepgaande analyses. Bedrijven implementeren dergelijke technologieën niet alleen om geavanceerde analyses te verkrijgen, maar ook om te creëren uniek product in welke branche dan ook. Precies laatste punt vormt en stimuleert grotendeels de groei van de data-analyse-industrie.

Nieuwe richting

Informatie omringt ons overal: uit de logs van internetbedrijven en bankverrichtingen vóór metingen in experimenten bij de Large Hadron Collider. De mogelijkheid om met deze gegevens te werken kan miljoenen winst opleveren en antwoorden bieden op fundamentele vragen over de structuur van het heelal. Daarom is data-analyse een apart onderzoeksgebied geworden binnen het bedrijfsleven en de wetenschappelijke gemeenschap.

De School of Data Analysis leidt de beste gespecialiseerde specialisten en wetenschappers op die in de toekomst de belangrijkste bron van wetenschappelijke en industriële ontwikkelingen op dit gebied zullen worden. De ontwikkeling van de branche heeft ook gevolgen voor ons als infrastructuuraanbieder: steeds meer klanten vragen om serverconfiguraties voor data-analysetaken.

De specifieke taken van onze klanten bepalen welke apparatuur we aan klanten moeten aanbieden en in welke richting we deze moeten ontwikkelen productlijn. Samen met Stanislav Fedotov en Oleg Ivchenko hebben we studenten en docenten van de School of Data Analysis ondervraagd en ontdekten welke technologieën zij gebruiken om praktische problemen op te lossen.

Technologieën voor gegevensanalyse

Tijdens de training gaan studenten van de basis (hogere basiswiskunde, algoritmen en programmeren) naar de meest geavanceerde gebieden van machine learning. We hebben informatie verzameld over degenen die servers met GPU's gebruiken:

  • Diep leren;
  • Versterkend leren;
  • Computervisie;
  • Automatische tekstverwerking.

Studenten gebruiken gespecialiseerd gereedschap in hun educatieve opdrachten en onderzoek. Sommige bibliotheken zijn ontworpen om gegevens naar te converteren vereiste soort, andere zijn ontworpen om mee te werken specifiek type informatie, zoals tekst of afbeeldingen. Deep learning is een van de meest complexe gebieden in data-analyse en maakt uitgebreid gebruik van neurale netwerken. We besloten uit te zoeken welke raamwerken docenten en leerlingen gebruiken om met neurale netwerken te werken.

De gepresenteerde tools hebben verschillende ondersteuning van de makers, maar worden niettemin nog steeds actief gebruikt voor educatieve en werkdoeleinden. Velen van hen hebben krachtige hardware nodig om taken binnen een adequaat tijdsbestek te verwerken.

Verdere ontwikkeling en projecten

Zoals bij elke wetenschap zal de richting van data-analyse veranderen. De ervaringen die studenten vandaag opdoen zullen ongetwijfeld toekomstige ontwikkelingen bepalen. Daarom is het vooral de moeite waard om de hoge praktische oriëntatie van het programma op te merken: sommige studenten beginnen tijdens hun studie of daarna met stages bij Yandex en passen hun kennis al toe op echte diensten en diensten (zoeken, computervisie, spraakherkenning en andere).

We spraken over de toekomst van data analytics met docenten van de School of Data Analytics, die hun visie op de ontwikkeling van data science met ons deelden.

Volgens Vlada Shakhuro, docent van de cursus “Beeld- en Videoanalyse”, de meest interessante taken in computervisie- het garanderen van de veiligheid op drukke plaatsen, het besturen van een onbemand voertuig en het creëren van een applicatie met behulp van augmented reality. Om deze problemen op te lossen, is het noodzakelijk om videogegevens kwalitatief te kunnen analyseren en in de eerste plaats algoritmen te ontwikkelen voor het detecteren en volgen van objecten, het herkennen van een persoon aan het gezicht en de driedimensionale reconstructie van de waargenomen scène. Docent Victor Lempitsky, de leider van de cursus “Deep Learning”, belicht afzonderlijk autoencoders, evenals generatieve en vijandige netwerken in zijn gebied.

Een van de mentoren van de School of Data Analysis deelt zijn mening over de verspreiding en het begin van het massale gebruik van machine learning:

“Machine learning evolueert van een domein van een paar obsessieve onderzoekers naar een hulpmiddel voor de gemiddelde ontwikkelaar. Eerder (bijvoorbeeld in 2012) schreven mensen code op laag niveau om convolutionele netwerken op een paar videokaarten te trainen. Nu kan iedereen binnen een paar uur:

  • download de gewichten van een reeds getraind neuraal netwerk (bijvoorbeeld in keras);
  • gebruik het om een ​​oplossing te vinden voor jouw probleem (fine-tuning, zero-shot learning);
  • embed het in uw website of mobiele applicatie(tensorflow/cafe 2).

Veel grote bedrijven en startups hebben al gewonnen met deze strategie (bijvoorbeeld Prisma), maar meer taken Het moet alleen nog ontdekt en besloten worden. En misschien zal dit hele machine-/deep learning-gedoe op een dag net zo gewoon worden als Python of Excel nu is.”

Niemand kan de technologie van de toekomst vandaag nauwkeurig voorspellen, maar als er een bepaalde bewegingsvector is, kun je begrijpen wat er nu bestudeerd moet worden. En de mogelijkheden daarvoor zijn binnen moderne wereld- een enorm aantal.

Mogelijkheden voor beginners

De studie van data-analyse is beperkt hoge eisen voor studenten: uitgebreide kennis op het gebied van wiskunde en algoritmen, programmeervaardigheden. Echt waar serieuze uitdagingen Machine learning vereist bestaan gespecialiseerde apparatuur. En voor degenen die meer willen leren over de theoretische component van data science, lanceerde de School of Data Analysis samen met de Higher School of Economics online cursus « ».

In plaats van een conclusie

De groei van de GPU-markt wordt gedreven door de groeiende belangstelling voor de mogelijkheden van dergelijke apparaten. GPU wordt thuis gebruikt spelsystemen, rendering- en videoverwerkingstaken, en waar algemeen krachtig computergebruik vereist is. Praktische toepassing dataminingtaken zullen dieper in onze kennis doordringen dagelijks leven. En uitvoering soortgelijke programma's Dit wordt het meest effectief gedaan met behulp van de GPU.

Wij danken onze klanten, maar ook docenten en studenten van de School of Data Analysis voor de gezamenlijke voorbereiding van het materiaal, en we nodigen onze lezers uit om hen beter te leren kennen.

En voor degenen die ervaren en ervaren zijn op het gebied van machine learning, data-analyse en meer, raden we aan te kijken naar verhuur van Selectel serverapparatuur met grafische versnellers: van eenvoudige GTX 1080 tot Tesla P100 en K80 voor de meest veeleisende taken.

Hallo vrienden.

Speel jij graag realistische games op je computer? Of een film kijken in kwaliteit waarbij elk klein detail duidelijk zichtbaar is? Dit betekent dat u moet begrijpen wat een gpu in een computer is. Weet je niets over hem? Mijn artikel helpt je om van dit misverstand af te komen ;-).


GPU is geen videokaart

Een voor velen onbekende combinatie van letters impliceert het concept van "grafische verwerkingseenheid", wat in onze taal een grafische processor betekent. Hij is degene die verantwoordelijk is voor het reproduceren van de afbeelding op uw hardware, en hoe beter de kenmerken ervan, hoe beter het beeld zal zijn.

Heeft u altijd gedacht dat deze functies worden uitgevoerd? Je hebt natuurlijk gelijk, maar het is een complex apparaat en het belangrijkste onderdeel is de grafische processor. Het kan onafhankelijk van de videocamera bestaan. We zullen hier later over praten.

GPU: niet te verwarren met CPU

Ondanks de gelijkenis van de afkortingen, moet u het onderwerp van ons gesprek niet verwarren met (Central Processor Unit). Ja, ze zijn vergelijkbaar, zowel qua naam als qua functies. Deze laatste kan ook afbeeldingen reproduceren, hoewel deze in dit opzicht zwakker is. Toch zijn dit totaal verschillende apparaten.

Ze verschillen in architectuur. CPU wel multifunctioneel apparaat, die verantwoordelijk is voor alle processen in de computer. Om dit te doen, heeft hij er meerdere nodig, met behulp waarvan hij achtereenvolgens de ene taak na de andere verwerkt.

Op zijn beurt was de GPU oorspronkelijk ontworpen als gespecialiseerd apparaat, ontworpen voor het uitvoeren van grafische weergave, met hoge snelheid verwerking van texturen en complexe afbeeldingen. Voor dergelijke doeleinden was het uitgerust met een multi-threaded structuur en meerdere kernen, zodat het tegelijkertijd met grote hoeveelheden informatie kon werken in plaats van opeenvolgend.

Met het oog op dit voordeel hebben leiders onder de fabrikanten van videoadapters modellen uitgebracht waarin GPU's een verbeterde vervanging voor de centrale kunnen worden. Het merk nVidia noemt zo'n toestel GTX 10xx, terwijl zijn belangrijkste concurrent AMD het RX noemt.

Soorten grafische processors

Zodat u door de GPU-markt kunt navigeren, raad ik u aan vertrouwd te raken met de typen van dit apparaat:

  • Discreet. Inbegrepen in de videoadapter. Verbindt met systeembord via een speciale connector (meestal PCIe of AGP). Heeft zijn eigen RAM. Ben je een veeleisende gamer of werk je met complexe grafische editors? Neem een ​​discreet model.

  • Geïntegreerd (IGP). Eerder in gesoldeerd moederbord, is nu ingebouwd in de centrale processor. In eerste instantie niet geschikt voor het spelen van realistische en zware games grafische programma's nieuwe modellen kunnen deze taken echter aan. Houd er echter rekening mee dat dergelijke chips wat langzamer zijn omdat ze geen persoonlijk RAM-geheugen hebben en geen toegang hebben tot CPU-geheugen.

  • Hybride grafische verwerking. Dit is 2 in 1, dat wil zeggen wanneer zowel het eerste type als het tweede type GPU in de computer zijn geïnstalleerd. Afhankelijk van de taken die worden uitgevoerd, is het een of het ander bij het werk inbegrepen. Er zijn echter laptops die 2 soorten apparaten tegelijk kunnen bedienen.
  • Extern type. Zoals je misschien wel raadt, is dit een grafische processor die zich buiten de computer bevindt. Meestal wordt dit model gekozen door bezitters van laptops die het moeilijk vinden om in hun hardware te passen. discrete videokaart, maar ik wil echt fatsoenlijke graphics krijgen.

Hoe te kiezen?

Let bij het kiezen van een videoadapter voor uzelf op de volgende kenmerken:

  • Klokfrequentie. Aangegeven in megahertz. Hoe hoger het getal, hoe meer informatie zal het apparaat binnen een seconde kunnen verwerken. Het is waar dat dit niet het enige is dat zijn prestaties beïnvloedt. Architectuur doet er ook toe.
  • Aantal rekeneenheden. Ze zijn ontworpen om taken te verwerken - shaders die verantwoordelijk zijn voor vertex-, geometrische, pixel- en universele berekeningen.

  • Vulsnelheid (vulsnelheid). Deze parameter kan u vertellen hoe snel de GPU een afbeelding kan tekenen. Het is onderverdeeld in 2 typen: pixel (pixelopvulsnelheid) en textuur (texelsnelheid). De eerste wordt beïnvloed door het aantal ROP-blokken in de processorstructuur, en de tweede - door textuureenheden (TMU).

Meestal binnen nieuwste modellen De GPU van de eerste blokken is kleiner. Ze schrijven de door de videoadapter berekende pixels in buffers en mixen ze, wat slim blending wordt genoemd. TMU's voeren bemonstering en filtering uit van texturen en andere informatie die nodig is voor scèneconstructie en algemene berekeningen.

Geometrische blokken

Niemand heeft er eerder aandacht aan besteed, omdat virtuele spellen had een eenvoudige geometrie. Met deze parameter werd rekening gehouden na het verschijnen van mozaïekpatroon in DirectX 11. Weet je niet wat ik bedoel? Laten we in volgorde gaan.

Het is een omgeving (een set tools) voor het schrijven van games. Om je te helpen je te oriënteren op het onderwerp, zal ik dat zeggen nieuwste versie product - de 12e, uitgebracht in 2015.

Tessellation is de verdeling van een vlak in delen om ze te vullen nieuwe informatie, wat het realisme van het spel vergroot.

Als je dus halsoverkop in de sfeer van Metro 2033, Crysis 2, HAWX 2, enz. wilt duiken, houd dan rekening met het aantal geometrische blokken bij het kiezen van een GPU.

Geheugen

We stonden op het punt om te nemen nieuwe videokaart? Dit betekent dat je nog met een paar RAM-kenmerken rekening moet houden:

  • Volume. Het belang van RAM wordt enigszins overschat, omdat niet alleen de capaciteit, maar ook het type en de eigenschappen de prestaties van de kaart beïnvloeden.
  • Bandbreedte. Dit is een belangrijkere parameter. Hoe breder, hoe meer informatie het geheugen naar de chip kan sturen en omgekeerd bepaalde tijd. Om games te spelen is minimaal 128 bit vereist.
  • Frequentie. Definieert ook doorvoer RAM. Maar houd er rekening mee dat geheugen met een 256-bits bus en een frequentie van 800 (3200) MHz productiever werkt dan met 128 bits op 1000 (4000) MHz.
  • Type. Ik zal je niet belasten onnodige informatie, maar ik noem alleen de optimale typen voor vandaag - dit zijn de derde en vijfde generatie van de GDDR.

Nog even over de koeling

Bent u van plan een krachtige chip te installeren? Zorg er meteen voor extra koeling in de vorm van radiatoren, koelers en als je regelmatig alle sappen uit het apparaat gaat persen, kun je denken aan een vloeistofsysteem.

Houd in het algemeen de temperatuur van het videoapparaat in de gaten. Het programma kan u hierbij helpen GPU-Z enz., die u naast deze parameter alles over het apparaat vertellen.

Zeker, moderne videokaarten zijn uitgerust beschermend systeem, wat oververhitting lijkt te voorkomen. Voor verschillende modellen De maximale temperatuur is anders. Gemiddeld is het 105 °C, waarna de adapter zichzelf uitschakelt. Maar het is beter om voor uw dure apparaat te zorgen en voor extra koeling te zorgen.

Veel mensen hebben de afkorting GPU gezien, maar niet iedereen weet wat het is. Dit bestanddeel, dat deel uitmaakt van videokaarten. Soms wordt er sprake van een videokaart, maar dit klopt niet. De GPU is bezig verwerking commando's die een driedimensionaal beeld vormen. Dit is het belangrijkste element waarvan de macht afhangt prestatie het gehele videosysteem.

Eten meerdere soorten zulke chips - discreet En ingebouwd. Het is natuurlijk de moeite waard om meteen te vermelden dat de eerste beter is. Het wordt op afzonderlijke modules geplaatst. Het is krachtig en vereist goed koeling. De tweede is op bijna alle computers geïnstalleerd. Het is ingebouwd in de CPU, waardoor het energieverbruik meerdere malen lager is. Het kan natuurlijk niet worden vergeleken met volwaardige discrete chips, maar op dit moment het laat behoorlijk goed zien resultaten.

Hoe de processor werkt

GPU is ingeschakeld verwerking 2D- en 3D-afbeeldingen. Dankzij de GPU is de CPU van de computer vrijer en kan hij meer presteren belangrijke taken. Belangrijkste kenmerk GPU is dat het zijn best doet snelheid verhogen berekening van grafische informatie. De chiparchitectuur maakt meer mogelijk efficiëntie proces grafische informatie, in plaats van centrale CPU PC.

GPU-installaties locatie 3D-modellen in het kader. Betrokken bij filteren driehoeken die erin zijn opgenomen, bepaalt welke zichtbaar zijn en snijdt de driehoeken af ​​die door andere objecten verborgen zijn.