Computerbron USM. Twee middenklasse videokaarten in plaats van één topklasse. ⇡ Prestaties, synthetische tests

Dankzij de start van de processorverkoop AMD Ryzen 5 eerder dan gepland (11 april) verschijnen al de eerste reviews van deze processors. We hebben het al kort gehad over de prestaties van de 4-core Ryzen 5 1400-processor in synthetische tests en moderne games. Nu hebben onze Spaanse collega's van El Chapuzas Informatico een review van de 6-core gepubliceerd AMD-processor Ryzen5 1600.

Deze processor heeft er zes fysieke kernen die elk twee rekenthreads hebben, wat uiteindelijk twaalf threads oplevert. Basisfrequentie De processorsnelheid is 3,2 GHz en kan dynamisch worden verhoogd tot 3,6 GHz. De totale cache op het derde niveau van de AMD Ryzen 5 1600 is 16 MB (8+8 MB), en elke core heeft respectievelijk 512 kB cache op het tweede niveau en 64 en 32 kB instructie- en datacache op het eerste niveau. Net als anderen Ryzen-processor Deze chip zit in een Socket AM4-pakket en heeft een TDP van 64 W. De adviesprijs van het nieuwe product voor de Amerikaanse markt bedraagt ​​$219.

Configuratie testbank, gebruikt door onze collega's, wordt weergegeven door de volgende componenten:

  • Moederbord: MSI X370 XPower Gaming Titanium;
  • RAM: G.Skill TridentZ DDR4 3600 MHz, werkend op 2400 MHz;
  • Videokaart: MSI GeForce GTX 1070 Gaming Z;
  • Stroomvoorziening: wees stil! Dark Power Pro11 1200 V;
  • Solid State-schijven: Kingston SSDNow KC400 128 GB en Corsair LX 512 GB;
  • Koelsysteem: Wraith Spire;
  • Besturingssysteem: Windows 10 64 bit.

De prestaties van een enkele kern van de Ryzen 5 1600-processor verschillen naar verwachting niet veel van de prestaties van een enkele kern van de Ryzen 7 1700X, aangezien ze op dezelfde siliciumkristallen zijn gebouwd, heeft alleen de zeskernprocessor twee kernen uitgeschakeld .

In multi-threaded CPU-Z-tests en wPrime 2.1 (32M), liet het nieuwe product vrij verwachte resultaten zien, met een zeer goed prestatieniveau.

In Cinebench 15 liep het nieuwe product niet alleen voor op het overklokken naar 4,9 GHz, maar ook op het toevoegen van meer snel geheugen(3600 MHz) duurdere quad-core Intel Core i7-7700K, maar ook de zes-core Intel Core i7-5930K. Maar bij videocodering bleek dat laatste sneller.

De Ryzen 5 1600-processor werkt helemaal niet met geheugen op de best mogelijke manier, hoewel iets beter vergeleken met de Ryzen 7 1700X.

In sommige synthetische tests blijkt het nieuwe product van AMD topscores, vergeleken met de Ryzen 7 1700X, en in sommige gevallen is hij daar iets minderwaardig aan. In de meerderheid synthetische testen Intel-processor De Core i7-6700K blijkt sneller te zijn dan beide AMD-vertegenwoordigers.

Betreft spelprestaties, dan is het behoorlijk indrukwekkend. Bij de meeste tests in Volledige resolutie HD (1920 x 1080 pixels) het nieuwe product loopt niet veel achter meer dure intel Core i7-6700K, en in sommige gevallen zelfs daarvoor. Het is interessant om op te merken dat in de Doom-spellen (met gebruik van OpenGL) en Rise of Tomb Raider (met DirectX 11), loopt de Ryzen 5 1600-processor aanzienlijk voor op de Ryzen 7 1700X.

In 4K UHD resolutie (3840 x 2160 pixels) is de situatie ongeveer hetzelfde en bij de meeste games komt het allemaal neer op de prestaties van de videokaart.

Co standaard systeem koeling werd de processorfrequentie verhoogd naar 3,9 GHz, terwijl de kernspanning 1,36 V was. Het zal interessant zijn om te zien in hoeverre het mogelijk zal zijn om het nieuwe product te overklokken met vloeistof gekoeld, en welke frequenties het zal veroveren onder extreem overklokken.

De temperatuur van de AMD Ryzen 5 1600-processor is bij inactiviteit 39 graden Celsius en onder belasting 62 – 65 graden Celsius. Het verbruik van het systeem op basis van het nieuwe product in games was 245 W, wat ongeveer gelijk is aan het verbruik van het systeem op Intel-gebaseerd Core i7-6700K, wat gelijk is aan 250 W.

Synthetische testen

IN originele recensie alle tests gaan naar verschillende pagina's, Ik zal ze voor het gemak combineren, maar verdeel ze in synthetische en gaming-varianten.

Wprime 2.0

Een bekend hulpprogramma voor het testen van multi-coreprocessors bepaalt hun kracht door bepaalde berekeningen uit te voeren. Hoe minder tijd besteed wordt aan het uitvoeren van de test, hoe beter het resultaat.

De snelste (wat gezien zijn klokfrequentie niet verrassend is) bleek de hoofdprocessor van de test van vandaag te zijn. Het was onaangenaam verrassend dat de Core i5 2300 bijna een seconde achterliep op de i5 760 (op dezelfde frequentie). Waarschijnlijk getroffen kleinere maat cache op het derde niveau.

Fritz Schaakbenchmar

En dit is een test die de prestaties van de processor bepaalt door verschillende schaakalgoritmen te verwerken. In deze benchmark geldt: hoe meer punten, hoe beter het resultaat.

De "oude" Core i5 760 werd ingehaald door alle vertegenwoordigers van de Sandy Bridge-familie.

WinRAR 3.92

Deze archiver heeft geen introductie nodig. De prestaties worden bepaald door het aantal KB/s compressie bepaalde bestanden. Hoe groter hoe beter.


Het beeld is hetzelfde als in de eerste test, de 2500K gaat aan de leiding, gevolgd door een grote achterstand is de 760, met twee stappen daarachter de i5 2300.

7-Zip 9.13

Nog een bekende archiver, die ik persoonlijk aan velen heb aanbevolen (het werkt veel beter dan RAR en ZIP, het werkt goed met multi-coreprocessors en x64 OS, plus volledig gratis) te zijner tijd. De prestaties worden op dezelfde manier berekend als in de vorige test.


De test werd uitgevoerd in de compressie- (eerste grafiek) en decompressie- (tweede) modus van bestanden. Het is duidelijk zichtbaar wie de leiding heeft en in welke mate.

Adobe Photoshop CS5

Beroemd verwerkingspakket grafische bestanden. Ik begreep niet hoe de processors precies werden getest (als je ideeën hebt, vertel het me), maar laten we toch eens naar de resultaten kijken:


Blijkbaar is het resultaat in seconden. Minder is beter. "Sandy Bridges" staan ​​aan de leiding

POV-straal 3.7

POV-straal populair programma Met open source voor het testen van processors in drijvende-kommabewerkingen. Het aantal punten in de test is het aantal weergegeven pixels per seconde, hoe meer, hoe beter.


De situatie uit de vorige test herhaalt zich. Merk op welk voordeel de i5 2300 heeft ten opzichte van de i5 760 (laat me je daaraan herinneren klok frequentie, beide processors hebben hetzelfde)! Zeker, nieuwe architectuur toont karakter. Of helpt de turbomodus?

CineBench R11.5

"Cinebench" behoeft geen introductie, een uitstekende test van processorprestaties (zowel in single-thread als multi-thread-modus) in 3D-weergaveomstandigheden.


Het beeld is precies hetzelfde als bij de voorgaande tests. "Bruggen" lopen voorop, 760 loopt achter. En het voordeel van de nieuwe producten is zeer solide.

H.264-encoder V2

Videocodering is een taak waar mensen vaak voor kiezen krachtige processors. Hoe minder tijd het kost om videomateriaal naar h264 te coderen, hoe beter.


Arme 760! Sandy Bridge" en geef het geen kans om te winnen. Ik wil al zo'n processor (alleen een hexacor, tenminste), beter onmiddellijk overklokken naar 4,5-5 GHz. Anders is videocodering op Atom en Q9550 niet zo vrolijk als voorheen

Ik hou er niet van als iemand handgemaakte codevoorbeelden probeert te gebruiken om de mogelijkheden van een statische code-analysator te evalueren. Nu verder specifiek voorbeeld Ik zal aantonen waarom ik een negatieve houding heb ten opzichte van synthetische tests.

Nog niet zo lang geleden schreef Bill Torpey een notitie op zijn blog “Even Mo “Static”, waarin hij vertelde hoe, naar zijn mening, de tools Cppcheck en PVS-Studio presteerden bij het analyseren van het itc-benchmarks-project statische analysebenchmarks van Toyota ITC.

Dat vond ik niet leuk, na het lezen van het artikel lijkt het erop dat de Cppcheck- en PVS-Studio-analysatoren ongeveer gelijk zijn in hun mogelijkheden. Uit het artikel volgt dat de ene analysator beter presteert op het ene gebied, de andere op een ander gebied, maar over het algemeen zijn hun diagnostische mogelijkheden vergelijkbaar.

Ik denk het niet. Mijn mening is dat onze PVS-Studio-analysator meerdere malen krachtiger is dan Cppcheck. En over het algemeen is dit geen “mening”, dat weet ik!

Omdat het echter van buitenaf niet duidelijk is dat PVS-Studio 10 keer beter is dan Cppcheck, moeten we proberen de reden te begrijpen. Ik besloot naar dezelfde itc-benchmarks te kijken en erachter te komen waarom PVS-Studio op deze testbasis niet het beste presteerde.

Hoe verder ik erin keek, hoe geïrriteerder ik me voelde. En één voorbeeld bracht me volledig uit balans, en ik zal je er iets lager over vertellen. Mijn conclusies zijn deze: ik heb geen klachten over Bill Torpey. Hij schreef een goed en eerlijk artikel. Bedankt Bill. Maar ik heb klachten over Toyota ITC. Mijn persoonlijke mening: hun testbasis is onzin. Dit is natuurlijk een grote uitspraak, maar ik geloof dat ik voldoende kwalificaties en ervaring heb om te praten over statische code-analysatoren en hoe deze te evalueren. Naar mijn mening kunnen itc-benchmarks niet worden gebruikt om de capaciteiten van een bepaalde analysator adequaat te beoordelen.

En hier is de daadwerkelijke test die mij volledig uit balans bracht.

Dus wat gebeurt er: is PVS-Studio zwakker dan Cppcheck in dit voorbeeld? Nee, hij is gewoon sterker!

De PVS-Studio-analysator begrijpt dat deze code met opzet is geschreven en dat er hier geen fout is.

Er zijn situaties waarin soortgelijke code wordt geschreven speciaal om ervoor te zorgen dat er een uitzondering wordt gegenereerd bij het derefereren van een nulaanwijzer. Dit is te vinden in tests of in specifieke codegebieden. We hebben soortgelijke code vaak gezien. Hier ziet u bijvoorbeeld hoe dit er in een echt project uit zou kunnen zien:

Ongeldig GpuChildThread::OnCrash() ( LOG(INFO)<< "GPU: Simulating GPU crash"; // Good bye, cruel world. volatile int* it_s_the_end_of_the_world_as_we_know_it = NULL; *it_s_the_end_of_the_world_as_we_know_it = 0xdead; }
Daarom zijn in de PVS-Studio-analysator verschillende uitzonderingen geïmplementeerd in de V522-diagnostiek, om niet te zweren bij dergelijke code. De analysator ziet dat null_pointer_001 is geen echte functie. In echte code zijn er geen fouten in functies wanneer een nul naar een aanwijzer wordt geschreven en onmiddellijk wordt gederefereerd. En de naam van de functie vertelt de analysator dat de “null pointer” er met een reden is.

Voor dergelijke gevallen is uitzondering A6 geïmplementeerd in diagnose V522. Ook de synthetische functie valt hier onder null_pointer_001. Zo gevaarlijk is uitzondering A6:

De dereferentie van een variabele vindt plaats in een functie waarvan de naam een ​​van de woorden bevat:

  • fout
  • standaard
  • Botsing
  • nul
  • test
  • overtreding
  • gooien
  • uitzondering
In dit geval krijgt de variabele de waarde 0 in de regel erboven.

De synthetische test voldeed volledig aan deze uitzondering. Ten eerste bevat de functienaam het woord “null”. Ten tweede vindt de toewijzing van nul aan een variabele precies op de vorige regel plaats. De uitzondering heeft ongeldige code gedetecteerd. En de code is echt niet echt, het is een synthetische test.

Het is vanwege dit soort nuances dat ik niet van synthetische tests houd!

Ik heb andere klachten over itc-benchmarks. Alles in hetzelfde bestand kunnen we bijvoorbeeld deze test zien:

Void null_pointer_006 () ( int *p; p = (int *)(intptr_t)rand(); *p = 1; /*Tool zou deze regel als fout moeten detecteren*/ /*ERROR:NULL pointer dereference*/ )
Functie rand kan 0 retourneren, wat vervolgens in NULL verandert. De PVS-Studio analyser weet nog niet wat hij terug kan geven rand en ziet daarom niets verdachts in deze code.

Ik vroeg mijn collega's om de analysator te leren beter te begrijpen wat een functie is rand. Je kunt nergens heen, je zult de analysator moeten aanscherpen met een vijl zodat deze beter presteert op de betreffende testbasis. Dit is een noodzakelijke maatregel, omdat vergelijkbare sets tests worden gebruikt om analysatoren te evalueren.

Maar wees niet bang. Ik verklaar dat we zullen blijven werken aan echt goede diagnostiek, en niet aan het aanpassen van de analysator aan de tests. Misschien zullen we PVS-Studio een beetje retoucheren voor itc-benchmarks, maar op de achtergrond en alleen op die plaatsen die op zijn minst enige betekenis hebben.

Ik wil dat ontwikkelaars begrijpen dat het voorbeeld met rand evalueert eigenlijk niets. Dit is een synthetische test die uit het niets is gehaald. Zo worden programma's niet geschreven. Dergelijke fouten bestaan ​​niet.

Trouwens, als de functie rand zal niet 0 retourneren, maar 1400 zal niet beter zijn. Toch kan van een dergelijke aanwijzer geen verwijdering worden afgeleid. Het derefereren van een null-pointer is dus een vreemd speciaal geval van volledig onjuiste code die eenvoudigweg is verzonnen en die niet voorkomt in echte programma's.

Ik ken echte programmeursproblemen. Dit zijn bijvoorbeeld typefouten die we met honderden tegelijk detecteren, bijvoorbeeld met behulp van de V501-diagnose. Interessant genoeg heb ik geen enkele test in itc-benchmarks opgemerkt die controleerde of de analysator een typefout als “if (a.x == a.x)” kon detecteren. Geen enkele test!

Itc-benchmarks negeert dus het vermogen van analysatoren om typefouten te vinden. En lezers van onze artikelen weten hoe vaak deze fouten voorkomen. Maar het bevat naar mijn mening domme testgevallen die niet in echte programma's voorkomen. Ik kan me niet voorstellen dat je in een echt serieus project een code als deze tegenkomt die tot een array out of bounds leidt:

Void overrun_st_014 () ( int buf; int index; index = rand(); buf = 1; /*Tool zou deze regel als fout moeten detecteren*/ /*ERROR: buffer overrun */ sink = buf; )
Wellicht is dit alleen terug te vinden in het laboratoriumwerk van studenten.

Tegelijkertijd weet ik dat het bij een serieus project gemakkelijk is om een ​​typefout tegen te komen, zoals:

Return (!strcmp (a->v.val_vms_delta.lbl1, b->v.val_vms_delta.lbl1) && !strcmp (a->v.val_vms_delta.lbl1, b->v.val_vms_delta.lbl1));
Deze fout werd gedetecteerd door de PVS-Studio-analysator

Ik hou er niet van als iemand handgemaakte codevoorbeelden probeert te gebruiken om de mogelijkheden van een statische code-analysator te evalueren. Nu zal ik aan de hand van een specifiek voorbeeld aantonen waarom ik een negatieve houding heb ten opzichte van synthetische tests.

Nog niet zo lang geleden schreef Bill Torpey een notitie op zijn blog “Even Mo “Static”, waarin hij vertelde hoe, naar zijn mening, de tools Cppcheck en PVS-Studio presteerden bij het analyseren van het itc-benchmarks-project statische analysebenchmarks van Toyota ITC.

Dat vond ik niet leuk, na het lezen van het artikel lijkt het erop dat de Cppcheck- en PVS-Studio-analysatoren ongeveer gelijk zijn in hun mogelijkheden. Uit het artikel volgt dat de ene analysator beter presteert op het ene gebied, de andere op een ander gebied, maar over het algemeen zijn hun diagnostische mogelijkheden vergelijkbaar.

Ik denk het niet. Mijn mening is dat onze PVS-Studio-analysator meerdere malen krachtiger is dan Cppcheck. En over het algemeen is dit geen “mening”, dat weet ik!

Omdat het echter van buitenaf niet duidelijk is dat PVS-Studio 10 keer beter is dan Cppcheck, moeten we proberen de reden te begrijpen. Ik besloot naar dezelfde itc-benchmarks te kijken en erachter te komen waarom PVS-Studio op deze testbasis niet het beste presteerde.

Hoe verder ik erin keek, hoe geïrriteerder ik me voelde. En één voorbeeld bracht me volledig uit balans, en ik zal je er iets lager over vertellen. Mijn conclusies zijn deze: ik heb geen klachten over Bill Torpey. Hij schreef een goed en eerlijk artikel. Bedankt Bill. Maar ik heb klachten over Toyota ITC. Mijn persoonlijke mening: hun testbasis is onzin. Dit is natuurlijk een grote uitspraak, maar ik geloof dat ik voldoende kwalificaties en ervaring heb om te praten over statische code-analysatoren en hoe deze te evalueren. Naar mijn mening kunnen itc-benchmarks niet worden gebruikt om de capaciteiten van een bepaalde analysator adequaat te beoordelen.

En hier is de daadwerkelijke test die mij volledig uit balans bracht.

Dus wat gebeurt er: is PVS-Studio zwakker dan Cppcheck in dit voorbeeld? Nee, hij is gewoon sterker!

De PVS-Studio-analysator begrijpt dat deze code met opzet is geschreven en dat er hier geen fout is.

Er zijn situaties waarin soortgelijke code wordt geschreven speciaal om ervoor te zorgen dat er een uitzondering wordt gegenereerd bij het derefereren van een nulaanwijzer. Dit is te vinden in tests of in specifieke codegebieden. We hebben soortgelijke code vaak gezien. Hier ziet u bijvoorbeeld hoe dit er in een echt project uit zou kunnen zien:

Ongeldig GpuChildThread::OnCrash() ( LOG(INFO)<< "GPU: Simulating GPU crash"; // Good bye, cruel world. volatile int* it_s_the_end_of_the_world_as_we_know_it = NULL; *it_s_the_end_of_the_world_as_we_know_it = 0xdead; }
Daarom zijn in de PVS-Studio-analysator verschillende uitzonderingen geïmplementeerd in de V522-diagnostiek, om niet te zweren bij dergelijke code. De analysator ziet dat null_pointer_001 is geen echte functie. In echte code zijn er geen fouten in functies wanneer een nul naar een aanwijzer wordt geschreven en onmiddellijk wordt gederefereerd. En de naam van de functie vertelt de analysator dat de “null pointer” er met een reden is.

Voor dergelijke gevallen is uitzondering A6 geïmplementeerd in diagnose V522. Ook de synthetische functie valt hier onder null_pointer_001. Zo gevaarlijk is uitzondering A6:

De dereferentie van een variabele vindt plaats in een functie waarvan de naam een ​​van de woorden bevat:

  • fout
  • standaard
  • Botsing
  • nul
  • test
  • overtreding
  • gooien
  • uitzondering
In dit geval krijgt de variabele de waarde 0 in de regel erboven.

De synthetische test voldeed volledig aan deze uitzondering. Ten eerste bevat de functienaam het woord “null”. Ten tweede vindt de toewijzing van nul aan een variabele precies op de vorige regel plaats. De uitzondering heeft ongeldige code gedetecteerd. En de code is echt niet echt, het is een synthetische test.

Het is vanwege dit soort nuances dat ik niet van synthetische tests houd!

Ik heb andere klachten over itc-benchmarks. Alles in hetzelfde bestand kunnen we bijvoorbeeld deze test zien:

Void null_pointer_006 () ( int *p; p = (int *)(intptr_t)rand(); *p = 1; /*Tool zou deze regel als fout moeten detecteren*/ /*ERROR:NULL pointer dereference*/ )
Functie rand kan 0 retourneren, wat vervolgens in NULL verandert. De PVS-Studio analyser weet nog niet wat hij terug kan geven rand en ziet daarom niets verdachts in deze code.

Ik vroeg mijn collega's om de analysator te leren beter te begrijpen wat een functie is rand. Je kunt nergens heen, je zult de analysator moeten aanscherpen met een vijl zodat deze beter presteert op de betreffende testbasis. Dit is een noodzakelijke maatregel, omdat vergelijkbare sets tests worden gebruikt om analysatoren te evalueren.

Maar wees niet bang. Ik verklaar dat we zullen blijven werken aan echt goede diagnostiek, en niet aan het aanpassen van de analysator aan de tests. Misschien zullen we PVS-Studio een beetje retoucheren voor itc-benchmarks, maar op de achtergrond en alleen op die plaatsen die op zijn minst enige betekenis hebben.

Ik wil dat ontwikkelaars begrijpen dat het voorbeeld met rand evalueert eigenlijk niets. Dit is een synthetische test die uit het niets is gehaald. Zo worden programma's niet geschreven. Dergelijke fouten bestaan ​​niet.

Trouwens, als de functie rand zal niet 0 retourneren, maar 1400 zal niet beter zijn. Toch kan van een dergelijke aanwijzer geen verwijdering worden afgeleid. Het derefereren van een null-pointer is dus een vreemd speciaal geval van volledig onjuiste code die eenvoudigweg is verzonnen en die niet voorkomt in echte programma's.

Ik ken echte programmeursproblemen. Dit zijn bijvoorbeeld typefouten die we met honderden tegelijk detecteren, bijvoorbeeld met behulp van de V501-diagnose. Interessant genoeg heb ik geen enkele test in itc-benchmarks opgemerkt die controleerde of de analysator een typefout als “if (a.x == a.x)” kon detecteren. Geen enkele test!

Itc-benchmarks negeert dus het vermogen van analysatoren om typefouten te vinden. En lezers van onze artikelen weten hoe vaak deze fouten voorkomen. Maar het bevat naar mijn mening domme testgevallen die niet in echte programma's voorkomen. Ik kan me niet voorstellen dat je in een echt serieus project een code als deze tegenkomt die tot een array out of bounds leidt:

Void overrun_st_014 () ( int buf; int index; index = rand(); buf = 1; /*Tool zou deze regel als fout moeten detecteren*/ /*ERROR: buffer overrun */ sink = buf; )
Wellicht is dit alleen terug te vinden in het laboratoriumwerk van studenten.

Tegelijkertijd weet ik dat het bij een serieus project gemakkelijk is om een ​​typefout tegen te komen, zoals:

Return (!strcmp (a->v.val_vms_delta.lbl1, b->v.val_vms_delta.lbl1) && !strcmp (a->v.val_vms_delta.lbl1, b->v.val_vms_delta.lbl1));
Deze fout werd gedetecteerd door de PVS-Studio-analysator

Ik heb waarschijnlijk gehoord over een bepaalde " AnTuTu-beoordeling" Nieuws dat er weer een record binnen is deze beoordeling verslagen door een onlangs uitgebracht nieuw product - ze worden vrij vaak gepubliceerd. Vrijwel elke review gebruikt, naast gaming- en softwaretests, dezelfde AnTuTu om de prestaties van het toestel te bepalen.

Helaas weten niet alle gebruikers wat de AnTuTu-beoordeling is, waarom deze nodig is en wat de gegevens in de tabellen betekenen. Ondertussen is deze informatie erg nuttig en kan deze u helpen echte hulp bij het kiezen van een nieuw apparaat. Wat is de AnTuTu-beoordeling, hoe je deze gebruikt en wat de testresultaten zeggen - KNOW-HOW-experts zullen het je vertellen, laten we gaan!

Laten we eerst eens kijken naar wat ‘synthetische tests’ zijn en waarvoor ze nodig zijn. Soortgelijke apps staan ​​voor programma's testen. Je kunt ze geheel gratis downloaden op merkwinkels applicaties voor de meest populaire mobiele besturingssystemen – Android en iOS.

Tijdens het testen geeft “synthetische stoffen” mee maximale lading op de hardware van het apparaat, waarbij de zwaarste bedieningsscenario's van het apparaat worden gesimuleerd. Een vergelijkbare belasting wordt zelden bereikt, zelfs niet wanneer meerdere applicaties tegelijkertijd en grafisch worden uitgevoerd uitdagende spellen. Daarom werkt het apparaat tijdens dergelijke tests op de grens van zijn mogelijkheden en toont het het werkelijke prestatieniveau.

Testresultaten worden weergegeven in punten; hoe meer punten, hoe meer betere prestatie specifiek apparaat en, dienovereenkomstig, hoe hoger de positie ervan algemene beoordeling apparaten.

Punten zijn geweldig, maar er rijst een logische vraag: hoe kun je de geschatte prestaties van een apparaat bepalen op basis van hun aantal?

In feite is alles heel eenvoudig - kijk maar eens bovenste lijnen beoordeling. Vlaggenschipapparaten, de onbetwiste leiders op het gebied van prestaties, bezetten daar stevig hun positie. Ja, de beoordeling wordt regelmatig bijgewerkt, de resultaten verbeteren, maar dit weerhoudt u er niet van om u op de aangegeven cijfers te concentreren.

Hoe beter de prestaties van een apparaat, hoe hoger de kosten uiteraard; het is niet voor niets dat vlaggenschipoplossingen de TOP 10 van de beoordeling bezetten. Maar er zijn andere categorieën apparaten, inclusief budgetapparaten, die voor vrijwel elke taak optimale prestaties leveren.

Conventioneel kunnen we verschillende categorieën onderscheiden op basis van testresultaten, uitgedrukt in AnTuTu-scorebereiken, die in de onderstaande tabel worden weergegeven.

Overzichtstabel met AnTuTu-scores en prestaties

Samenvatten

De synthetische test en beoordeling van AnTuTu-apparaten is eenvoudig en zeer handig gereedschap, waarmee we kunnen bepalen echte prestaties en kansen specifiek apparaat. Deze gegevens zullen zeer nuttig zijn bij het kiezen van een nieuwe smartphone of tablet.

Stel dat u tussen twee opties kiest: de ene smartphone is duurder, de andere is goedkoper, maar levert wel prestaties specifiek model komt voor jou op de eerste plaats. IN in dit geval kijk gewoon naar de beoordeling om te begrijpen welk apparaat meer heeft hoge performantie en voldoet aan uw behoeften.

Naast AnTuTu zijn er nog andere synthetische tests om de mogelijkheden van gadgets te controleren. Maar AnTuTu is de meest populaire optie onder soortgelijke programma's, vanwege zijn eenvoud, veelzijdigheid, toegankelijkheid en enorme database gebruikersgegevens, op basis waarvan beoordelingstabellen regelmatig worden aangepast. Daarom, als u de echte prestaties van het apparaat wilt weten: synthetisch AnTuTu-test zal worden beste keuze om de mogelijkheden van het apparaat te controleren.

Leuk gevonden?
Vertel het aan je vrienden!