Optimale algoritmen. Hardware-onafhankelijke virtuele geheugenbeheerlaag

Tijdens interviews wordt hen vaak gevraagd welke soort het snelst is. Strik vraag. Wij leggen uit waarom en zoeken naar de beste optie.

Als antwoord zou u moeten vragen: "Voor welk geval wordt tijd-optimale sortering geselecteerd?" En pas als de voorwaarden bekend zijn, kunt u veilig de beschikbare opties doorlopen.

Bestaan:

  • sorteeralgoritmen O(n2) zoals invoeg-, bellen- en selectiesoorten, die in speciale gevallen worden gebruikt;
  • quicksort (algemeen gebruik): gemiddeld O(n logboek n) uitwisselingen, maar de slechtste tijd is O(n2), als de array al is gesorteerd of als de elementen gelijk zijn;
  • algoritmen O(NloggenN), zoals merge en heap sort (piramide sort), die ook goede sorteeralgoritmen voor algemene doeleinden zijn;
  • Op) of lineaire sorteeralgoritmen (selecteren, selecteren met uitwisseling, selecteren met tellen) voor lijsten met gehele getallen, wat geschikt kan zijn, afhankelijk van de aard van de gehele getallen in uw lijsten.

Als alles wat je weet de algemene orderelatie tussen elementen is, zullen optimale algoritmen complex zijn O(n logboek n). Lineaire algoritmen vereisen aanvullende informatie over de structuur van elementen.

De optimaliteit van het algoritme hangt sterk af van het type lijsten/arrays dat u gaat sorteren, en zelfs van het computermodel. Hoe meer informatie u heeft, hoe nauwkeuriger uw keuze zal zijn. Bij zeer zwakke aannames over de factoren zou de optimale worst-case complexiteit kunnen bestaan Op!).

Dit antwoord gaat alleen in op de moeilijkheden. De daadwerkelijke uitvoeringstijd van algoritmen is afhankelijk van een groot aantal factoren.

Testen

Dus, welke soort is het snelst?

Visualisatie

Een goede visualisatie van sorteringen wordt gedemonstreerd in deze video:

Het lijkt een antwoord te geven op de vraag welke soort de snelste is, maar houd er rekening mee dat snelheid door veel factoren wordt beïnvloed, en dit is slechts een van de gedemonstreerde opties.

Het beste algoritme voor paginavervanging is eenvoudig te beschrijven, maar volkomen onmogelijk te implementeren. Alles gebeurt daarin als volgt. Als er een paginafout optreedt, is er een specifieke set pagina's in het geheugen aanwezig. Sommige van deze pagina's zijn letterlijk toegankelijk via de volgende opdrachten (deze opdrachten staan ​​op de pagina). Andere pagina's zijn mogelijk niet meer toegankelijk na 10, 100 of misschien zelfs 1000 opdrachten. Elke pagina kan worden gemarkeerd met het aantal opdrachten dat moet worden uitgevoerd voordat de pagina voor de eerste keer wordt geopend.

Het optimale paginavervangingsalgoritme stelt dat de pagina met de hoogste waardemarkering moet worden verwijderd. Als een pagina ongebruikt blijft voor 8 miljoen commando's, en een andere pagina ongebruikt blijft voor 6 miljoen commando's, dan zal het verwijderen van de eerste resulteren in een pagina-ontbrekende fout, waardoor deze in de meest verre toekomst opnieuw van de schijf zal worden opgehaald. Computers proberen, net als mensen, onaangename gebeurtenissen zoveel mogelijk uit te stellen.

Het enige probleem met een dergelijk algoritme is de onmogelijkheid van de implementatie ervan. Tegen de tijd dat er een paginafout optreedt, kan het besturingssysteem niet meer weten wanneer elk van de pagina's de volgende keer nodig zal zijn. (Een vergelijkbare situatie werd eerder waargenomen toen we keken naar een planningsalgoritme dat eerst de kortste taak kiest - hoe kan het systeem bepalen welke van de taken de kortste is?) Door het programma echter op een simulator te laten draaien en alle paginatoegangen bij te houden, het wordt mogelijk om het optimale algoritme te implementeren voor het vervangen van pagina's bij de tweede doorgang, met behulp van de paginatoegangsinformatie die tijdens de eerste doorgang is verzameld.

Dit maakt het mogelijk om de prestaties van haalbare algoritmen te vergelijken met de best mogelijke. Als het besturingssysteem prestaties levert die bijvoorbeeld 1% slechter zijn dan het optimale algoritme, zal de inspanning die wordt besteed aan het zoeken naar een beter algoritme niet meer dan 1% verbetering opleveren.

Om eventuele verwarring te voorkomen, moet het duidelijk zijn dat deze paginahitregistratie alleen van toepassing is op één programma dat wordt geëvalueerd, en slechts op één zeer specifieke set invoer. Het resulterende algoritme voor paginavervanging is dus alleen van toepassing op dat specifieke programma en specifieke invoergegevens. Hoewel deze methode wordt gebruikt om algoritmen voor paginavervanging te evalueren, is deze niet bruikbaar in systemen in de echte wereld. Vervolgens zullen we de algoritmen bekijken die echt nuttig zijn voor echte systemen.

De ondergrens van de complexiteit van een klasse algoritmen wordt niet op unieke wijze bepaald. Bijvoorbeeld, F(N) = 0 is altijd een ondergrens, net als elke negatieve functie. Hoe groter de gevonden ondergrens, hoe niet-trivialer en waardevoller deze is. Een signaal dat we niet in staat zullen zijn een ondergrens groter dan te construeren


DOOR Hoofdstuk 4. Ondergrens van complexiteit. Optimale algoritmen

de ondergrens die we al hebben F(N), kan bijvoorbeeld de aanwezigheid dienen A e .s4, waarvoor TA (n) = f(n). Deze situatie komen we in de vorige paragraaf tegen in de voorbeelden 14.1 en 14.3. Het bekende algoritme voor het vinden van het kleinste element en het algoritme voor het binair zoeken naar de locatie van een element in een geordende array hebben elk een complexiteit die samenvalt met de gevonden ondergrens. Deze algoritmen zijn optimaal in de zin van de volgende definitie.

Definitie 15.1. Laten .s4 - een klasse algoritmen om een ​​bepaald probleem op te lossen. Laat er overeenstemming komen over hoe de kosten van algoritmen worden gemeten en wat telt als inputgrootte, en laat maar N- aanduiding van de ingangsgrootte. Algoritme A e .s4 genaamd optimaal V j4, Als TA (n) is een ondergrens voor de complexiteit van algoritmen j4.

Voorbeeld 15.1. Bij het verkrijgen van een ondergrens voor complexiteit en het bewijzen van optimaliteit is het soms handig om functies te gebruiken op waardensets die ontstaan ​​tijdens de uitvoering van het algoritme, bijvoorbeeld op waardensets van variabelen die door het algoritme worden gebruikt.

Voorstel 15.1.Functie f(N) = Г 2 N 1 - 2 is een ondergrens voor de complexiteit van algoritmen voor het gelijktijdig selecteren van de grootste en kleinste elementen van een array met lengte n met behulp van vergelijkingen.

Bewijs. Elke fase van de uitvoering van een willekeurig algoritme V, gebaseerd op vergelijkingen en ontworpen om de grootste en kleinste elementen van een array te vinden, kan worden gekenmerkt door de viervoudige ( A, B, C, D) subsets van de set originele elementen (x g, x 2, ■ ■ ■, x n), Waar

A bestaat uit al die elementen die helemaal niet zijn vergeleken;

B bestaat uit al die elementen die aan sommige vergelijkingen hebben deelgenomen en altijd groot bleken te zijn;

C bestaat uit al die elementen die aan sommige vergelijkingen hebben deelgenomen en altijd kleiner bleken te zijn;

D bestaat uit al die elementen die aan sommige vergelijkingen hebben deelgenomen en soms groter en soms minder blijken te zijn.

Laten a, b, c, d- aantal elementen van sets A, B, C, D overeenkomstig. De uitgangssituatie wordt gekenmerkt door de gelijkheid a = n, b = = c = d = 0. Na voltooiing van het algoritme moeten de volgende stappen worden uitgevoerd:


§ 15 . Optimale algoritmen

stva A = 0, b = c = 1, d = n-2. Na de eerste vergelijking zullen er gedurende de gehele uitvoering van het algoritme voortdurend ongelijkheden optreden b^1, c^1.



Alle vergelijkingen die zijn gemaakt tijdens het uitvoeren van het algoritme V, kan worden onderverdeeld in typen, aangewezen AA,AB,AC,ADVERTENTIE, BB,BC,BD,CC, CD,DD, bijv.: vergelijking hoort bij type AB , als een van de elementen die worden vergeleken, wordt overgenomen A , andere-van IN , enz. Op basis hiervan kunnen we alle mogelijke veranderingen van het viervoud (a, B, Met, D) onder invloed van vergelijkingen van verschillende typen.

FEDERAL AGENTSCHAP VOOR ONDERWIJS

Staatsonderwijsinstelling voor hoger beroepsonderwijs "Voronezh State Technical University"

Faculteit Radio-ingenieurswetenschappen

Afdeling Radiotechniek

Specialiteit 210302 "Radiotechniek"

Optimalisatie van zoekalgoritmen

Ingevuld door student gr. RT-041 DS Chetkin

Gecontroleerd door universitair hoofddocent van de afdeling V.P. Litvinenko

Invoering. 4

1. Ontwikkeling van een optimaal dichotoom zoekalgoritme met een equiprobabele waarschijnlijkheidsverdeling en het aantal gebeurtenissen M=16. 5

2. Ontwikkeling van een optimaal zoekalgoritme voor de exponentiële kansverdelingswet voor M=16. 7

3. Ontwikkeling van een optimaal algoritme voor het zoeken naar een exponentiële verdelingswet met een aantal metingen van N=15 tot N=log2M. 9

4. Ontwikkeling van een optimaal zoekalgoritme voor de 9e verdelingsoptie met het aantal metingen van N=1 tot 15. 12

Conclusie. 19

Referenties.. 20

Invoering

Stealth karakteriseert de kosten (tijd, geld) die nodig zijn om een ​​herhalingsgebeurtenis met een bepaalde betrouwbaarheid (waarschijnlijkheid van een juiste beslissing,id) te identificeren.

Bij het vormen van een beoordeling van de geheimhouding van een willekeurige gebeurtenis werd als basis een twee-alternatieve stapsgewijze zoekprocedure aangenomen, waarvan de essentie als volgt is.

De verzameling X met de bijbehorende kansverdelingswet is verdeeld in twee deelverzamelingen en (het superscript is het partitienummer). Een binaire meter voert een binaire meting uit en identificeert in welke subset de hergebeurtenis (het spoor) zich bevindt. Vervolgens wordt de subset waarin de hergebeurtenis werd gedetecteerd (in figuur 2.1 dit) opnieuw verdeeld in twee subsets en wordt een spoor van de hergebeurtenis in één ervan onthuld. De procedure eindigt wanneer er één gebeurtenis in de geselecteerde subset plaatsvindt. De zoekopdracht kan sequentieel of dichotoom zijn. In het eerste algoritme () wordt een sequentiële zoektocht naar toestanden uitgevoerd, van de eerste tot de laatste, totdat een hergebeurtenis wordt aangetroffen.

Het tweede zoekalgoritme () omvat het verdelen van de gehele reeks toestanden in tweeën, het controleren op de aanwezigheid van een re-gebeurtenis in elk van deze delen, en vervolgens het verdelen van de geselecteerde helft van de reeks X in twee gelijke delen, waarbij wordt gecontroleerd op de aanwezigheid van een re-gebeurtenis in hen, enzovoort. De zoekopdracht eindigt wanneer er één gebeurtenis in de geselecteerde subset aanwezig is.

Er zijn verschillende manieren om binaire zoekprocedures te minimaliseren. Voorbeelden hiervan zijn de Zimmerman-Huffman- en Shannon-Fono-methoden. Het algoritme kan worden geoptimaliseerd op basis van verschillende parameters, rekening houdend met de meetkosten en zonder. In dit laboratoriumwerk onderzochten we de optimalisatie van een dichotoom zoekalgoritme op basis van de kleinste gemiddelde stealth-waarde.

1. Ontwikkeling van een optimaal dichotoom zoekalgoritme met een equiprobabele waarschijnlijkheidsverdeling en het aantal gebeurtenissen M=16

Schakel de dichotome zoekmodus in. Stel het aantal gebeurtenissen in met een uniforme waarschijnlijkheidsverdeling en stel het aantal dimensies in. Ontwikkel een optimaal zoekalgoritme, plaats het in een getypt veld, voer modellering uit en bepaal de potentiële geheimhouding.

In dit geval is het meest optimale zoekalgoritme het algoritme dat is ontwikkeld volgens het Shannon-Fano-principe. Deze methode omvat het verdelen van de oorspronkelijke set elementen met een bepaalde verdeling in twee subsets met de getallen 0 en 1, zodat de kansen om erin te komen zo dicht mogelijk bij elkaar liggen (idealiter gehalveerd). Vervolgens wordt elk van de resulterende subsets afzonderlijk verdeeld in twee subsets met dezelfde voorwaarde en nummers vanaf 00,01,10,11. De partitie eindigt wanneer alle elementen van de subset slechts één element bevatten.

Als resultaat hiervan werd een optimaal zoekalgoritme ontwikkeld voor de equiprobabele kansverdelingswet.

Laten we de potentiële geheimhouding berekenen voor een even waarschijnlijke kansverdelingswet:

(1)

Het resultaat voor deze casus:

Hierdoor werd een eenvoudige uitdrukking verkregen voor het bepalen van de potentiële geheimhouding van een uniforme verdelingswet, die bij een dichotoom zoekalgoritme niet afhankelijk is van de opsomming van een combinatie van metingen, maar alleen van het type zoekboom.

Ontwikkeling van een optimaal zoekalgoritme voor de exponentiële kansverdelingswet voor M=16

Selecteer een exponentiële waarschijnlijkheidsverdeling van gebeurtenissen in de vorm , , - normaliserende factor, met hetzelfde als in punt 1. Bepaal het optimale zoekalgoritme, plaats het in een kiesveld, voer modellering uit, bepaal potentiële geheimhouding.

Laten we in eerste instantie de zoekboom hetzelfde laten als in de vorige paragraaf. “PrintScreen” van het “Search”-programma voor dit geval voor de exponentiële distributiewet.

Als we kijken naar het verloop van de onzekerheidsverwijderingscurve, komen we tot de conclusie dat het verloop ervan niet optimaal is. Met behulp van bekende algoritmen voor zoekoptimalisatie komen we tot de conclusie dat in dit geval het optimale zoekalgoritme helemaal geen dichotoom algoritme is voor welke combinatie dan ook van het vinden van een hergebeurtenis, maar een sequentieel algoritme. Voor dit geval is het optimaal, omdat de meest waarschijnlijke wordt gecontroleerd bij de eerste meting, vervolgens bij de volgende, enzovoort, totdat er geen onzekerheid meer is in de beslissing.

Bewijs van het gebruik van een sequentieel zoekalgoritme. Hiervoor wordt de Zimmerman-Huffman-methode gebruikt. Deze optimalisatiemethode bestaat uit twee fasen: “Inkoopoperaties” en “Lezen”. Dit wordt in meer detail besproken in het boek.

Omdat de exponent groter is dan 1, voldoet dit aan de ongelijkheid:

Waar λ een exponent is van de waarschijnlijkheidsverdeling gelijk aan 1, dan is voor dit geval het sequentiële zoekalgoritme optimaal.

Als resultaat van dit punt wordt aangetoond dat een sequentieel zoekalgoritme optimaal is. Door de resultaten van twee stappen te vergelijken, kom je tot de conclusie dat er voor elke kansverdelingswet zijn eigen optimale zoekalgoritme bestaat, hetzij sequentieel, dichotoom of gecombineerd zoekalgoritme.

Ontwikkeling van een optimaal algoritme voor het zoeken naar een exponentiële verdelingswet met een aantal metingen van N=15 tot N=log2M

Voor de exponentiële waarschijnlijkheidsverdeling vanaf punt 2, waarbij het maximale aantal metingen achtereenvolgens wordt teruggebracht van naar , ontwikkel je optimale zoekalgoritmen en bepaal je op basis van de simulatieresultaten de overeenkomstige waarden van het gemiddelde aantal metingen.

Wanneer N=15 uit de vorige paragraaf is het sequentiële zoekalgoritme optimaal en wordt hiervoor de gemiddelde waarde van binaire metingen op dezelfde manier bepaald als voor potentiële geheimhouding. De Rcp-waarde wordt weergegeven in Tabel 1.

Tabel 1 – Afhankelijkheid van het gemiddelde aantal metingen

over het aantal metingen met optimale zoekalgoritmen

Laten we de potentiële geheimhouding voor elke zaak berekenen met behulp van formule 1:

Wanneer het aantal metingen gelijk is aan 3, is het onmogelijk om een ​​zoekalgoritme te ontwikkelen, omdat dit niet voldoet aan de voorwaarde van zoekhaalbaarheid, namelijk:

Als resultaat wordt in Figuur 8 een grafiek weergegeven van de afhankelijkheid van het gemiddelde aantal metingen van het aantal metingen.

Figuur 8 – Afhankelijkheid van het gemiddelde aantal metingen van het aantal metingen voor de exponentiële kansverdelingswet

4. Ontwikkeling van een optimaal zoekalgoritme voor de 9e verdelingsoptie met een aantal metingen van N=1 tot 15

Ontwikkel voor jouw versie van de waarschijnlijkheidsverdeling voor het aantal gebeurtenissen een optimaal zoekalgoritme, bouw een zoekboom, leg de vorm ervan uit, wat bepaalt deze?

Geef in het typveld het optimale volledige zoekalgoritme op. Door de laatste metingen (tot) opeenvolgend uit te sluiten, moet u rekening houden met de afhankelijkheid van het gemiddelde aantal metingen, de waarschijnlijkheid van een onvolledige oplossing en de resterende geheimhouding van de zoekduur. De resultaten worden weergegeven in Tabel 2.

Tabel 2 – Afhankelijkheid van het gemiddeld aantal metingen,

resterende geheimhouding, waarschijnlijkheid van onzekerheid afhankelijk van het aantal metingen

N 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
R 4 3.775 4.325 4.725 5.1625 5.375 5.5 5.65 5.7 5.7625 5.8 5.8
Pneop 0.55 0.7625 0.875 0 0 0 0 0 0 0 0 0 0 0 0
Sost 0.801 0.785 0.791 0.802 0.814 0.826 0.837 0.848 0.858 0.868 0.877 0.885 0.893 0.901

In deze tabel werd Sost berekend met een betrouwbaarheidsniveau van 0,9. Het "PrintScreen" van het "Poisk" -programma voor verschillende waarden van het aantal dimensies wordt weergegeven in figuren 8-11.

Wanneer het aantal metingen minder dan 4 is, bestaat de mogelijkheid van een onvolledige oplossing omdat het onmogelijk is om alle gebeurtenissen te controleren. Hierdoor hoeft niet alles gecontroleerd te worden; de beste optie zou zijn om de meest waarschijnlijke gebeurtenissen te controleren. Het “PrintScreen” van het “Search”-programma wanneer het aantal metingen minder dan 3 is, wordt weergegeven in Figuur 12.

Laten we een grafiek maken van de afhankelijkheid van potentiële geheimhouding van het aantal metingen, weergegeven in figuur 13.

Figuur 13 – Afhankelijkheid van het gemiddelde aantal metingen van het aantal metingen voor de 9e wet van de kansverdeling

Figuur 14 – Afhankelijkheid van de waarschijnlijkheid van een onvolledige oplossing van het aantal metingen voor de 9e wet van de kansverdeling

(3)

(4)

We zullen de beveranderen binnen het bereik van 0,7 ÷ 0,9. Als resultaat werd een grafiek verkregen van de afhankelijkheid van de resterende geheimhouding van het aantal metingen, weergegeven in figuur 15.

Nost(Pdov) Pdov=0,9

Figuur 15 – Afhankelijkheid van resterende verhulling bij betrouwbaavan 0,7 ÷ 0,9

Uit de bovenstaande grafiek kunnen we concluderen dat Pdov dicht bij één moet worden gekozen, dit zal leiden tot een afname van de resterende geheimhouding, maar dit is niet altijd mogelijk.

Figuur 16 – Afhankelijkheid van resterende verhulling voor waarden van het aantal dimensies 4,8,16

Uit deze grafiek volgt dat bij een groot aantal metingen de resterende geheimhouding hoger is, hoewel logischerwijs een groter aantal metingen zal leiden tot een afname van de kans op beslissingsonzekerheid.

Conclusie

In dit werk werden optimalisatiestudies van een dichotoom zoekalgoritme uitgevoerd met behulp van het Poick-programma. Er wordt een vergelijking gemaakt met het sequentiële algoritme. Het type SSC is onderzocht voor een uniforme, exponentiële en distributie van gebeurtenissen, gespecificeerd volgens de variant. Vaardigheden ontwikkeld in het omgaan met het Poick-programma.

Tijdens het laboratoriumwerk werden optimale zoekalgoritmen ontwikkeld voor sequentiële en dichotome zoekalgoritmen.

De onzekerheidsverwijderingscurve werd berekend en er werd vastgesteld dat het in sommige gevallen juister is om een ​​sequentieel zoekalgoritme te gebruiken, en in andere gevallen een dichotoom zoekalgoritme. Maar dit kan alleen in verband worden gebracht met de oorspronkelijke kansverdeling.

De correcte werking van het Poisk-programma werd bevestigd met behulp van berekeningen uitgevoerd in het Matcard 2001-softwarepakket.

Bibliografie

1. Grondbeginselen van de stealth-theorie: een leerboek voor voltijdstudenten van de specialiteit 200700 "Radiotechniek" / Voronezh State Technical University; Comp.Z.M. Kanevsky, V.P. Litvinenko, G.V. Makarov, D.A. Maksimov; onder redactie van Z.M. Kanevski. Voronezj, 2006. 202 p.

2. Richtlijnen voor laboratoriumwerk "Onderzoek naar zoekalgoritmen" in de discipline "Fundamentals of the Theory of Stealth" voor studenten van de specialiteit 200700 "Radio Engineering" voltijdstudie / Voronezh State Technical University; comp.Z.M. Kanevsky, V.P. Litvinenko. Voronezj, 2007.54p.

3. STP VSTU 005-2007. Cursus ontwerp. Organisatie, volgorde, uitvoering van de afwikkeling en toelichting en grafisch gedeelte.

Laten we aannemen dat alle vervormingen in het kanaal strikt deterministisch zijn en dat alleen Gaussiaanse additieve ruis willekeurig is, waarvan we in eerste instantie aannemen dat deze wit is, met een spectrale dichtheid. Dit betekent dat bij het verzenden van een signaal (symbool) het binnenkomende signaal kan worden beschreven per model (3.28):

waar iedereen bekend is. Alleen de implementatie van de interferentie en de index van het feitelijk verzonden signaal zijn onbekend, wat moet worden bepaald door het beslissingscircuit.

We gaan er ook van uit dat het allemaal eindige signalen zijn, waarvan de duur Dit gebeurt als de verzonden signalen eindig zijn en dezelfde duur hebben (synchroon systeem), en er geen multipadvoortplanting in het kanaal is, noch lineaire vervormingen die signaaluittrekking veroorzaken (of ze zijn gecorrigeerd).

In de toekomst zullen we er altijd van uitgaan dat het systeem betrouwbare kloksynchronisatie biedt, dat wil zeggen dat de grenzen van het klokinterval waarop het signaal arriveert exact bekend zijn. Synchronisatieproblemen zijn van groot belang bij het implementeren van optimale demodulatoren en synchrone communicatiesystemen in het algemeen, maar vallen buiten het bestek van deze cursus. Laten we het moment van het begin van de transmissie als nul nemen.

Onder deze omstandigheden bepalen we het algoritme voor de werking van een optimale (d.w.z. gebaseerd op de maximale waarschijnlijkheidsregel) demodulator die het signaal op een klokinterval analyseert. Hiervoor is het noodzakelijk om de waarschijnlijkheidsverhoudingen voor alle mogelijke signalen te vinden opzichte van de nulhypothese

De taak wordt gecompliceerd door het feit dat de breedte van het spectrum van het signaal oneindig is (aangezien het eindig is), en daarom is de ruimte van signalen oneindig dimensionaal. Voor dergelijke signalen (of oneindig-dimensionale vectoren), zoals reeds opgemerkt , er is geen waarschijnlijkheidsdichtheid. Er zijn echter -aire waarschijnlijkheidsdichtheden voor alle signaalsecties (zie § 2.1).

Laten we eerst de witte ruis vervangen. quasi-wit, met dezelfde eenzijdige spectrale vermogensdichtheid, maar alleen in een bepaalde frequentieband waar 1. Laten we eerst de nulhypothese bekijken, d.w.z. we zullen aannemen dat - ruis. Laten we op gelijke afstanden secties van het klokinterval nemen. De monsters in deze secties voor quasi-witte Gaussische ruis zijn onafhankelijk in overeenstemming met (2.49). Daarom de -dimensionale waarschijnlijkheidsdichtheid voor de genomen monsters

waar is de spreiding (kracht) van quasi-witte ruis.

Onder de hypothese dat het symbool werd verzonden, zal de conditioneel-dimensionale waarschijnlijkheidsdichtheid van de secties worden bepaald door dezelfde formule als (4.18), indien vervangen door het verschil

De waarschijnlijkheidsratio voor het signaal (ten opzichte van de nulhypothese), berekend voor de dwarsdoorsneden:

Laten we de variantie vervangen door de uitdrukking:

Volgens de maximale waarschijnlijkheidsregel moet het beslissingscircuit in het geval van quasi-witte ruis een waarde selecteren die het maximum oplevert. In plaats van het maximum kunt u zoeken naar het maximum van de logaritme:

Merk op dat de tweede term in (4.22) niet afhankelijk is van en in de vergelijking kan worden genegeerd. Vervolgens kan de regel om te beslissen dat een signaal is verzonden als volgt worden geformuleerd:

In -dimensionale Euclidische ruimte bepaalt de norm van het verschil tussen vectoren of de afstand daartussen. Daarom kan algoritme (4.23) in de vorm worden geschreven

en geef het een eenvoudige geometrische interpretatie: de optimale demodulator moet dat signaal registreren (overeenkomend met het symbool dat “dichter” bij de ontvangen oscillatie ligt. Als voorbeeld toont figuur 4.2 de optimale verdeling van de tweedimensionale ruimte van ontvangen signalen bij het verzenden van binaire signalen. De beslissingsgebieden ten gunste van symbolen bevinden zich aan weerszijden van

Rijst. 4.2. Optimale verdeling van de ruimte van ontvangen oscillaties met een binaire code en nauwkeurig bekende signalen

Laten we (4.22) transformeren door de haakjes te openen en te verkleinen:

Laten we nu terugkeren naar het oorspronkelijke probleem van witte ruis. Voor dit doel zullen we de strip uitbreiden, waarna het aantal secties naar oneindig, naar nul zal neigen. De sommen in (4.24) zullen in integralen veranderen, en de logaritme van de waarschijnlijkheidsratio zal worden bepaald als

en het transmissiebeslissingsalgoritme zal de vorm aannemen

waar is de energie van het verwachte signaal

Een apparaat dat het scalaire product rechtstreeks berekent

wordt een actief filter of correlator genoemd. Daarom wordt de ontvanger die algoritme (4.26) implementeert correlatie genoemd.

In afb. Figuur 4.3 toont een blokschema van een ontvangstapparaat dat werkt volgens (4.26). Hier zijn de X-blokken vermenigvuldigers; A - referentiesignaalgeneratoren - integrators, aftrekapparaten; een beslissingsapparaat dat op meerdere momenten (wanneer de sleutel gesloten is) het nummer van de tak met het maximale signaal bepaalt.

Als de signalen zo worden gekozen dat al hun implementaties (en dus alle implementaties dezelfde energie hebben), het algoritme

Rijst. 4.3. Optimale demodulator met exact bekende signalen

ontvangst (4.26) (en dienovereenkomstig de implementatie ervan) is vereenvoudigd (er zijn geen subtractieve apparaten nodig) en accepteert

Uit (4.29) blijkt duidelijk dat de beslissingsregel niet verandert als het signaal dat aankomt bij de demodulatoringang met een willekeurig getal wordt vermenigvuldigd. Daarom verschilt een systeem waarin alle signaalimplementaties dezelfde energie hebben, doordat het optimale ontvangstalgoritme daarin geen kennis vereist van de "schaal" van het binnenkomende signaal of, met andere woorden, kennis van de kanaaltransmissiecoëfficiënt. Dit belangrijke kenmerk heeft geleid tot het wijdverbreide gebruik van signaalsystemen met gelijke energie, gewoonlijk actieve pauzesystemen genoemd. Dit kenmerk is vooral belangrijk voor fadingkanalen waarin de transmissiecoëfficiënt fluctueert (zie hieronder § 4.7).

Benadrukt moet worden dat correcte kloksynchronisatie voor het identificeren van de grenzen van de berichten (het meerdere keren verzamelen van signalen aan de uitgang van het blok en het ontlasten van de spanning van de integrator na het nemen van een beslissing) een onmisbare voorwaarde is voor de praktische implementatie van het overwogen algoritmen volgens het diagram in Fig. 4.3.

Van het meest voorkomende binaire systeem van ongelijkheden (4.26) blijft er slechts één over, en het ontvangstalgoritme kan in een eenvoudiger vorm worden gepresenteerd:

waar is het verschilsignaal; drempelwaarde. Voor een systeem met een actieve pauze, wat de implementatie van het optimale schema enorm vergemakkelijkt.

Wanneer aan ongelijkheid (4.30) is voldaan, wordt het symbool 1 geregistreerd, anders - 0. Om (4.30) te implementeren in het circuit van Fig. 4.3 vereist slechts één vertakking.

In afb. 4.4 toont een circuit dat algoritme (4.30) implementeert voor een binair transmissiesysteem met unipolaire pulsen (met een passieve pauze):

Rijst. 4.4. Implementatie van optimale ontvangst van binaire rechthoekige videopulsen

Met deze signalen zal regel (4.30) de volgende vorm aannemen:

Integratie in het circuit van Fig. 4.4 wordt met voldoende nauwkeurigheid uitgevoerd door de schakeling, op voorwaarde dat In dit geval de spanning op condensator C op dit moment gelijk is aan - De regel komt er dus op neer dat deze spanning het drempelniveau moet overschrijden dat is ingevoerd in Wanneer aan deze ongelijkheid is voldaan, wordt 1 geschreven, indien niet voldaan - 0 Na deze opname (die plaatsvindt wanneer de sleutel gesloten is) is het noodzakelijk om de spanning van de integrator te resetten zodat het volgende signaalelement kan worden ontvangen. reset wordt uitgevoerd door het sluiten van de sleutel die de condensator ontlaadt.

Hetzelfde circuit kan, met een kleine aanpassing, worden gebruikt voor demodulatie in een binair transmissiesysteem met bipolaire pulsen (met een actieve pauze): In dit geval neemt dus regel (4.30) na reductie de vorm aan

Het wordt geïmplementeerd door de schakeling in Fig. 4.4, als het drempelniveau X gelijk wordt gesteld aan nul. In dit geval verandert het in een polariteitsdiscriminator, die symbool 1 uitvoert wanneer de spanning aan de ingang positief is, anders.

De twee beschouwde systemen worden gebruikt in de eenvoudigste bedrade communicatieapparaten. Radiokanalen, evenals moderne kabelkanalen, maken gebruik van hoogfrequente signalen. De eenvoudigste binaire systemen met harmonische signalen zijn systemen met amplitudeverschuivingssleutels (AM), faseverschuivingssleutels (PM) en frequentieverschuivingssleutels.

In binair Er wordt aangenomen dat alle constanten die hier in deze sectie zijn opgenomen, bekend zijn. Aangezien hier regel (4.30) als volgt wordt geschreven:

Het wordt geïmplementeerd door de schakeling in Fig. 4.5, die verschilt van Fig. 4.4. een blok voor het vermenigvuldigen van het binnenkomende signaal met een referentiesignaal. Het drempelniveau is in dit geval gelijk aan

Rijst. 4.5. Implementatie van optimale ontvangst in het binaire systeem AM, FM met een exact bekend signaal

Met een binair FM-systeem

Dit is een systeem met een actieve pauze en daarom is het gemakkelijk te verifiëren dat de beslissingsregel tot het volgende beperkt: en

wordt geïmplementeerd door hetzelfde circuit in Fig. 4.5 bij In dit geval speelt het de rol van een polariteitsdiscriminator. Het type kan worden bepaald door te weten tegen de achtergrond van witte ruis met spectrale dichtheid. Het is gemakkelijk te zien dat er aan de uitgang van het filter signalen zullen zijn en dat de ruis gekleurd zal zijn, met spectrale dichtheid, d.w.z. de ingang van het denkbeeldige De optimale demodulator ontvangt precies die signalen en de ruis die ermee wordt berekend. Zo is het diagram in Fig. Figuur 4.66 is een demodulator voor witte-ruissignalen, die een lager foutenpercentage heeft dan de optimale demodulator die is aangesloten op de uitgang van het witfilter in figuur 4.66. 4.6a. Deze tegenstrijdigheid bewijst dat er geen demodulator kan bestaan ​​voor signalen tegen een achtergrond van gekleurde ruis die beter is dan die in Fig. 4.6a.

Merk op dat bij het implementeren van een dergelijke demodulator met een witfilter er problemen ontstaan ​​​​door het feit dat signalen die door het filter gaan in de regel worden uitgerekt en er wederzijdse overlap van signaalelementen optreedt. Er zijn een aantal manieren om deze moeilijkheid te overwinnen, maar een gedetailleerde analyse ervan valt buiten het bestek van deze cursus

Opgemerkt moet worden dat in het diagram in Fig. 4.5 moet het referentiesignaal dezelfde beginfasen hebben als de verwachte binnenkomende signalen, of met andere woorden coherent zijn met de binnenkomende signalen. Deze vereiste bemoeilijkt meestal de implementatie van de demodulator en vereist dat deze wordt geïntroduceerd naast de vereisten aangegeven in Fig. 4,5 blokken met extra apparaten ontworpen om de fasen van referentiesignalen aan te passen.

Alle ontvangstmethoden, waarvan de implementatie nauwkeurige a priori kennis van de beginfasen van binnenkomende signalen vereist, worden coherent genoemd. In gevallen waarin informatie over de beginfasen van de verwachte signalen wordt afgeleid van het ontvangen signaal zelf (bijvoorbeeld als de fase fluctueert, maar zo langzaam dat dit kan worden voorspeld op basis van eerdere elementen van het signaal), wordt de ontvangst quasi- samenhangend. Als informatie over de beginfasen van binnenkomende signalen ontbreekt of om een ​​of andere reden niet wordt gebruikt, wordt de ontvangst incoherent genoemd (zie § 4.6 hieronder).