Hoe CPU werkt voor Google: gratis kunstmatige intelligentie. Hoe en waarom Google kunstmatige intelligentie creëert

Een intelligente computer is slechts zo veelzijdig als de mensen die hem lesgeven.

Robert Ito

Voor het verleden Drie zomers zijn ongeveer twintig computerwetenschappers naar Stanford University gekomen om van enkele van de slimsten op dit gebied te leren over kunstmatige intelligentie. De aanwezigen, geselecteerd uit honderden sollicitanten, maken dagtochten naar nabijgelegen technologiebedrijven, communiceren met sociale robots en hexacopters, en leren over computationele taalkunde (wat machines doen als woorden bijvoorbeeld meerdere betekenissen hebben) en het belang van tijdmanagement (zeer) . Ze spelen frisbee. Maar als jouw mentale beeld van AI bestaat uit een stel jongens die sluwere vijanden maken voor hun favoriete videogames, nou, dat is dat niet. Alle studenten hier bij het Outreach Summer (SAILORS)-programma van het Stanford Artificial Intelligence Laboratory zijn meisjes die net de negende klas hebben afgerond, en hun studies zijn gericht op het vinden van manieren om levens te verbeteren, niet op het verbeteren van hun gameplay: hoe gebruiken we AI om jumbo straaljagers tegen elkaar botsen? Om ervoor te zorgen dat artsen hun handen wassen voordat ze naar de OK gaan? “Ons doel was om AI-onderwijs te heroverwegen op een manier die diversiteit en studenten uit alle lagen van de bevolking aanmoedigt”, zegt Fei-Fei Li, directeur van het AI-lab van Stanford en oprichter van het SAILORS-programma. “Als je een divers scala aan toekomstige technologen hebt, vinden ze het echt belangrijk dat technologie wordt gebruikt voor het welzijn van de mensheid.”

“Als je een divers scala aan toekomstige technologen hebt, vinden ze het echt belangrijk dat technologie wordt gebruikt voor het welzijn van de mensheid.”

Google en Stanford

SAILORS werd in 2015 opgericht door Li en voormalig student Olga Russakovsky (nu assistent-professor aan de Princeton University) om meer gendergelijkheid in de technologie-industrie te helpen bewerkstelligen. De zaak is zowel nobel als dringend. Volgens een recent onderzoek daalt het aantal vrouwen dat een graad in computerwetenschappen zoekt; in de AI-sector bekleden vrouwen minder dan 20 procent van de leidinggevende posities. Het is een enorm veld waar we buiten moeten blijven, aangezien elke dag steeds meer mensen AI gebruiken om hun leven gemakkelijker en efficiënter te maken: AI is de manier waarop foto-apps je gezicht herkennen tussen dat van alle anderen, om nog maar te zwijgen van het strand waar je de foto hebt gemaakt. Het is hoe je apparaten je begrijpen als je vraagt ​​wat voor weer het morgen wordt. Dan zijn er de minder bekende toepassingen, zoals het diagnosticeren van diabetische retinopathie (wat vaak tot blindheid leidt) of het sturen van een drone op een zoek- en reddingsmissie naar de meest afgelegen uithoeken van de wereld.

Nu AI steeds alomtegenwoordiger wordt, groeit de behoefte aan genderevenwicht in het veld verder dan alleen de juistheid van de zaak; diversiteit is een cruciaal onderdeel van AI vanwege de aard van machinaal leren. Een doel van AI is om machines te produceren die taken kunnen uitvoeren die mensen van nature doen: spraak herkennen, beslissingen nemen, het verschil vertellen tussen een burrito en een enchilada. Om dit te doen worden machines gevoed met enorme hoeveelheden informatie – vaak miljoenen woorden, gesprekken of beelden – net zoals wij allemaal informatie absorberen, ieder moment van de dag, vanaf de geboorte (in essentie is dit machinaal leren). Hoe meer auto's een machine ziet, hoe bedrevener deze is in het identificeren ervan. Maar als die datasets beperkt of bevooroordeeld zijn (als onderzoekers bijvoorbeeld geen afbeeldingen van Trabants gebruiken), of als de mensen bij AI deze beperkingen of vooroordelen niet zien of er geen rekening mee houden (misschien zijn ze geen kenners van obscure Oost-Duitse auto's), de machines en de productie zullen gebrekkig zijn. Het gebeurt al. In één geval identificeerde beeldherkenningssoftware foto's van Aziatische mensen als knipperend.

“Het gaat niet alleen om transparantie in data. Eigenlijk moeten we ervoor zorgen dat de cijfers de goede kant op gaan.”

Project omvat

Hoe creëren mensen meer inclusieve laboratoria en werkruimtes? Een aantal projecten en individuen gaan die uitdaging aan. Dit jaar hielpen Li, die ook hoofdwetenschapper van AI en machine learning is bij Google Cloud, en anderen bij de lancering van AI4ALL. De nationale non-profitorganisatie is gericht op het brengen van meer diversiteit in AI en heeft experts op het gebied van genomica, robotica en duurzaamheid als mentoren ingeschakeld. Het bouwt voort op het werk van SAILORS, maar richt zich ook op gekleurde mensen en studenten met een laag inkomen in het hele land via partnerschappen met Princeton, UC Berkeley en Carnegie Mellon, naast Stanford. “Er kwamen veel collega’s en leiders uit de industrie naar ons toe die zeiden: ‘SAILORS is geweldig, maar het is gewoon Stanford die een paar dozijn studenten per jaar bedient, voornamelijk uit de Bay Area’”, zegt Li. “AI4ALL gaat dus over diversiteit en inclusiviteit. Het is niet alleen geslacht.”

AI en ML

Wat is het verschil?

De termen kunstmatige intelligentie (AI) en machine learning (ML) worden vaak door elkaar gebruikt, maar ze zijn niet hetzelfde. AI beschrijft het vermogen van machines om menselijke denkwijzen na te bootsen en te leren hoe ze te werk gaan, in plaats van specifieke commando’s te volgen. ML is een van de meest efficiënte en populaire technieken die computers gebruiken om dat vermogen te verkrijgen. In ML doorzoeken machines voorbeelden om patronen te herkennen.

Andere soortgelijke initiatieven zijn onder meer Code Next, Google's in Oakland gevestigde initiatief om Latino- en Afro-Amerikaanse studenten aan te moedigen een loopbaan in de technologie te verkennen; DIY Girls, een educatief en mentor STEAM-programma (wetenschap, technologie, techniek, kunst en wiskunde) voor gemeenschappen met weinig middelen in Los Angeles; en Project Include, dat nieuwe en middelgrote startups helpt meer vrouwen en gekleurde mensen aan te nemen. Tracy Chou, voorheen van Pinterest, richtte vorig jaar Project Include op met zeven andere prominente vrouwen in de tech-industrie. In 2013 verklaarde Chou de beroemde uitspraak van technologiebedrijven dat ze eerlijk moesten zijn over het aantal vrouwen dat ze in dienst hadden. Terwijl de cijfers binnen druppelden, bevestigden ze wat iedereen in Silicon Valley wist: de technologiewereld, van het grootste bedrijf tot de kleinste startup, is overwegend blank en mannelijk. Project Include was volgens Chou de logische volgende stap. “Nadat deze datarapporten een paar jaar uitkwamen en er niet veel verandering plaatsvond, begon er een verschuiving in het gesprek te ontstaan”, zegt ze. “Nu gaat het niet alleen om transparantie in data. Eigenlijk moeten we ervoor zorgen dat de cijfers de goede kant op gaan.”

Die richting omvat onder meer het toegankelijker maken van werk op het gebied van AI voor de massa. Er zijn relatief weinig mensen werkzaam bij AI, en we zien nu al robots die voor mensen zorgen en persoonlijke assistenten die op onze behoeften anticiperen. Nu mensen de gegevens en criteria controleren en machines het werk doen, betekent een betere en grotere menselijke inbreng betere en grotere resultaten.

In veel opzichten is de democratisering van AI al onderweg. Neem dit voorbeeld: in Japan gebruikte een boerenzoon AI om de komkommeroogst van zijn familie op verschillende kenmerken te sorteren. Het is het soort verhaal dat Li aanspreekt, die op 16-jarige leeftijd vanuit China naar de VS kwam en weinig wist over haar geadopteerde land en nog minder over New Jersey, waar ze terechtkwam. Na allerlei klusjes te hebben gedaan, van het schoonmaken van huizen tot het uitlaten van honden tot kassamedewerker in een Chinees restaurant, kwam Li terecht in Princeton, en later op de graduate school aan Caltech.

Li komt naar haar werk als een drievoudige buitenstaander: een immigrant, een vrouw en een gekleurde persoon in een wereld die wordt gedomineerd door blanke mannen. Wat voor iemand anders obstakels hadden kunnen zijn, zijn voor Li een prikkel geworden. Ze besteedt een groot deel van haar tijd aan het bestuderen van computervisie, een onderdeel van machinaal leren dat ze ‘de geweldige app van AI’ noemt. Computervisie analyseert en identificeert visuele gegevens en kan op een dag bijvoorbeeld helpen bij het creëren van responsievere robotledematen, of bij het oplossen van de ingewikkeldste wiskundige bewijzen. Maar zoals bij alle AI is de sleutel tot deze technologie het leren van machines om een ​​schat aan informatie vanuit verschillende plaatsen en perspectieven te ontsluiten. Om in essentie visuele burgers van de wereld te zijn, vergelijkbaar met Li.

Het stimuleren van een diverse groep makers om die wereld vorm te geven is essentieel voor het soort verhalen en technische problemen waarmee contentstrateeg Diana Williams elke dag te maken krijgt bij ILMxLAB, het uiterst geheime Lucasfilm-droomcentrum waar ontwikkelaars meeslepend, interactief entertainment creëren - een VR-ontmoeting met Darth Vader, misschien geïnspireerd door het enorme Star Wars-universum. Williams is nauw betrokken bij pro-tech organisaties als Black Girls Code en herinnert zich het gebrek aan gekleurde vrouwen op haar universiteit in de jaren '80. “Ik was altijd de enige in mijn wiskundelessen, de enige in mijn businesslessen”, zegt ze. “Dat wordt vermoeiend en het wordt eng.” Haar oplossing om meer vrouwen op technologie te wijzen: “Begin ze jong en zorg ervoor dat ze sterk in hun zelfvertrouwen zijn, zodat ze zich niet omdraaien als ze de kamer binnenkomen en daar de enigen zijn.”

Maya Gupta, onderzoeker op het gebied van machine learning bij Google, werkt aan het verbeteren van AI, zij het vanuit een andere invalshoek. Op Stanford hielp ze een Noors bedrijf met het opsporen van scheuren in de onderwatergasleidingen. “Je kunt daar niet zo goed naar binnen, dus moesten we gedeeltelijke informatie gebruiken om te proberen te raden”, zegt ze. Machines leren genuanceerde gissingen te maken is bekend terrein voor Gupta. Als je op YouTube naar 'Truth' van tenorsaxofonist Kamasi Washington luistert en de muziek gaat moeiteloos over in het prachtige 'Turiya and Ramakrishna' van Alice Coltrane, zoals het werk van de slimste DJ die je nooit hebt gekend, bedank dan Gupta, wiens team computers prima helpt - stem hun aanbevelingen af. “Het draait allemaal om voorspellen, toch?” zegt ze. "Je probeert te raden wat er aan de hand is met beperkte gegevens."

Tegenwoordig leidt ze een onderzoeks- en ontwikkelingsteam bij Google om onder andere een grotere nauwkeurigheid in machine learning te creëren. "Laten we zeggen dat ik even nauwkeurig een Boston-accent als een Texas-accent wil identificeren, maar ik heb een spraakherkenner die iets beter is in het Texas-accent", zegt ze. 'Moet ik de mensen met een Texaans accent straffen door de erkenning net zo slecht te maken als voor Boston, om eerlijk te zijn? En wat als het simpelweg moeilijker is om mensen te herkennen die met een Boston-accent spreken?

Gupta en haar team verfijnen ook systemen die oneindig veel transparanter zouden zijn dan hun op koolstof gebaseerde ontwerpers. Met machines, zo luidt de hoop, kunnen we veel van de vooroordelen of onbewuste processen die het menselijk denken teisteren, elimineren – of ze in ieder geval gemakkelijker herkennen wanneer ze zich voordoen. Machines verliezen hun focus niet als ze moe, prikkelbaar of hongerig zijn. Uit onderzoek is gebleken dat rechters minder snel voorwaardelijke vrijlating verlenen vlak voor de lunch, als ze aan sandwiches denken in plaats van aan sidebars. “Het is moeilijk te meten wat er werkelijk in de hoofden van mensen omgaat”, zegt Gupta. “We willen dat onze machine-learningsystemen verklaarbaar zijn, en eerlijk gezegd zijn veel ervan al beter verklaarbaar dan mensen.”

“We willen dat onze machine learning-systemen verklaarbaar zijn, en eerlijk gezegd zijn veel daarvan al beter verklaarbaar dan mensen.”

Nu AI steeds nuttiger wordt – om nog maar te zwijgen van het gebruiksgemak – wordt het steeds belangrijker om het in zoveel mogelijk handen te leggen. Christine Robson, een IBM-onderzoeker voordat ze bij Google kwam, is een enthousiaste voorvechter van open source-software zoals TensorFlow, een machinaal leersysteem dat voor een groot aantal taken kan worden gebruikt, van het vertalen van talen tot het opsporen van ziekten tot het maken van originele kunst.

Voor Robson betekent inclusiviteit in AI het toegankelijk maken van de tools voor meer dan alleen zelfbenoemde wiskundenerds zoals zijzelf. “Ik ben enthousiast over de beschikbaarheid van machine learning voor de wereld”, zegt ze. “We praten veel over het democratiseren van machinaal leren, maar ik ben hier een groot voorstander van. Het is van cruciaal belang dat deze tools heel gebruiksvriendelijk zijn en dat iedereen deze technieken kan toepassen.”

Sci-fi-literatuur en film bieden al lang voorbeelden van AI die verkeerd is gegaan (Mary Shelley's Frankenstein wordt volgend jaar 200). Tegenwoordig maken velen in de sector – waaronder Li, Robson en Chou – zich minder zorgen over wat AI met ons zou kunnen doen, en meer over wat wij mensen met AI zouden kunnen doen. Een voorbeeld: programmeurs geven virtuele assistenten een vrouwenstem, omdat zowel mannen als vrouwen er de voorkeur aan geven. “Maar het bestendigt het idee dat assistenten vrouwelijk zijn, dus als we ons met deze systemen bezighouden, versterkt het die sociale vooroordelen”, zegt Chou. Veel van de knapste koppen op dit gebied maken zich zorgen over wat er in echte AI-systemen gaat gebeuren – en dus wat er gaat ontstaan. Dat is waar de drang naar grotere diversiteit in AI om de hoek komt kijken. Dit zal weinig gemakkelijk zijn. Maar de voorstanders ervan zijn slim, vindingrijk en toegewijd aan de zaak.

“Het is zo cruciaal om deze AI-tools echt gebruiksvriendelijk te maken en deze technieken voor iedereen mogelijk te maken.”

We moeten ervoor zorgen dat iedereen zich welkom voelt, zegt Gupta. Ze herinnert zich de muur met foto’s van gepensioneerde hoogleraren elektrotechniek aan haar alma mater Rice die ‘niet op mij leken’. We moeten meisjes ervan overtuigen dat AI geen magie is, zegt Robson. “Het is wiskunde.”

Bij SAILORS leren studenten hoe ze natuurlijke taalverwerking kunnen gebruiken om sociale media te doorzoeken en te helpen bij rampenbestrijding. “Het zou reddingswerkers helpen om in realtime mensen in nood te ontdekken via hun Twitter-berichten”, zegt Li. De effecten van de lessen en projecten duren tot ver na de onvergetelijke zomers. Sommige leerlingen hebben hun eigen roboticaclubs op school opgericht, artikelen in wetenschappelijke tijdschriften gepubliceerd en workshops gehouden op middelbare scholen om het evangelie van AI onder zelfs jongere meisjes te verspreiden. Voor deze studenten, wier achtergronden en ervaringen net zo divers zijn als de talloze projecten die ze op het kamp hebben aangepakt, is AI niet het nieuwste coole gadget, maar een krachtige kracht ten goede. In de aanloop naar de eerste SAILORS-bijeenkomst in 2015 deelde het programma berichten van inkomende kampeerders, waaronder deze ambitieuze wens: “Ik hoop nu aan mijn AI-reis te beginnen, zodat ik in de toekomst impact kan maken op de wereld.”

Robert Ito is een schrijver gevestigd in Los Angeles. Hij levert regelmatig bijdragen aan de New York Times, Salon, En Los Angeles tijdschrift.

Kunstmatige intelligentie is al lang stevig verankerd in ons leven. Meestal denken we niet eens aan dit probleem als we gewoonlijk een stemassistent op een smartphone of automatische beeldherkenning in een programma gebruiken. Zelfs Google-zoekopdrachten zijn niet compleet zonder machine learning, een tak van kunstmatige intelligentie.

Sinds ongeveer twee jaar werkt er een technologie genaamd RankBrain, die dient voor het slim sorteren van zoekresultaten. Ongeveer 15% van de dagelijkse zoekopdrachten is nieuw voor Google, wat betekent dat ze nog niet eerder door een gebruiker zijn geformuleerd.

“Onze kunstmatige intelligentie doet het zonder menselijke commando’s”

Professor David Zilver, Hoofdprogrammeur kunstmatige intelligentie
Google AlphaGo Zero

RankBrain-algoritmen zoeken naar bestaande formulieren in onbekende formulieren zoekopdrachten en koppel ze aan semantisch vergelijkbare concepten. Uiteindelijk moet de zoekmachine zelf leren en passende antwoorden kunnen geven op vragen die nog niet eerder zijn gesteld.

Google maakt in zijn datacenters gebruik van speciaal voor dit doel ontworpen tensorprocessors (TPU's).

Tensor Processing Units (TPU's)

De vooruitgang op het gebied van kunstmatige intelligentie van Google is indrukwekkend. Eén reden is dat Google speciale hardware heeft ontwikkeld die neurale netwerken veel efficiënter versnelt dan standaard CPU's en GPU's. Verbazingwekkend genoeg gebruiken tensorprocessors gedeeltelijk gewone pc-componenten. Ze bevinden zich op één plug-in SATA-bord en communiceren via PCI Express met andere tensorprocessors.

Tensorprocessorstructuur

Snel optellen en vermenigvuldigen is de kracht van de tensorprocessor. In de module die hiervoor verantwoordelijk is, met een matrix als centraal onderdeel, worden neurale netwerkberekeningen uitgevoerd. Het neemt ongeveer een kwart van het processoroppervlak in beslag. De resterende ruimte wordt gebruikt om snel invoergegevens aan te leveren. Deze worden geleverd via PCI Express en DDR3 RAM. De berekeningsresultaten worden via PCI Express en de hostinterface teruggestuurd naar de server.


Bovenmenselijke intelligentie

De processors hebben hun naam gekregen van de TensorFlow-softwarebibliotheek. Het belangrijkste doel van TPU is het versnellen van algoritmen voor kunstmatige intelligentie die afhankelijk zijn van vrije softwarebibliotheken.

TPU's werden aanvankelijk populair als hardwareplatform voor AlphaGo, de kunstmatige intelligentie die 's werelds beste spelers versloeg in het Aziatische spel Go. In tegenstelling tot schaken werd het ontwikkelen van software voor Go op professioneel niveau jarenlang als onmogelijk beschouwd.

De daaropvolgende ontwikkeling, AlphaGo Zero, kon het spel zelfstandig leren op basis van de regels die eraan werden gegeven. In drie dagen bereikte het het professionele niveau, in drie weken haalde het de vorige versie van AlphaGo in, waarvan de training enorme inspanningen kostte en miljoenen professionele spellen vereiste. Het bleek dat kunstmatige intelligentie voorheen de studie van menselijke bewegingen beperkte. Na nog eens zes weken was AlphaGo Zero niet langer onverslaanbaar.

Accelerator voor neurale netwerken

Vergeleken met conventionele processors zijn tensorprocessors gespecialiseerd in het gebruik van kunstmatige neurale netwerken. Ze bestaan ​​uit veel met elkaar verbonden wiskundige functies die het menselijk brein met zijn zenuwcellen en hun verbindingen nabootsen. Net als onze hersenen heeft een neuraal netwerk de juiste input nodig. Er wordt bijvoorbeeld getraind in spraakherkenning, beeldherkenning of de regels van het spel ‘Go’.

Een kunstmatig neuraal netwerk omvat verschillende lagen neuronen. Elk neuron gebruikt een gewogen som van de uitgangswaarden van de verbonden neuronen in de vorige laag. Correct benchmarken is de sleutel tot succes bij Machine Learning, maar dit moet eerst worden gedaan, wat in de praktijk vaak meerdere drijvende-kommabewerkingen betekent.

In deze discipline zijn GPU's eigenlijk de beste keuze. Om vervolgens zoekresultaten te sorteren of bewegingen te voorspellen, heeft het neurale netwerk niet langer zeer nauwkeurige drijvende-kommaberekeningen nodig. Dit proces vereist een zeer groot aantal vermenigvuldigings- en optelbewerkingen van gehele getallen.

Tensorprocessors bij Google Compute Center

Google gebruikt sinds 2016 TPU in zijn datacenters. Het bord heeft meestal meerdere processors in één cluster. Ze worden voornamelijk gebruikt in blokken van vier.

De tensorprocessor van Google bestaat voornamelijk uit een rekeneenheid, een matrix van 256x256 eenheden. Het werkt op gehele getallen van 8 bits, bereikt een verwerkingskracht van 92 biljoen bewerkingen per seconde en slaat de resultaten op in het geheugen.

Het diagram laat zien dat de matrix slechts ongeveer een kwart van het processoroppervlak in beslag neemt. De overige componenten zijn verantwoordelijk voor het voortdurend voorzien van de kernels van nieuwe gegevens. Tensorprocessors geven zichzelf geen opdrachten, ze komen via PCI Express van de aangesloten server. De eindresultaten worden op dezelfde manier ook als reactie verzonden.

De benchmarks die nodig zijn voor berekeningen van neurale netwerken worden geleverd door de First-In/First-Out-geheugenmodule. Omdat er weinig verandert voor een specifieke toepassing, is verbinden via DDR3 RAM voldoende. Tussenresultaten worden in een bufferdrive van 24 MB geplaatst en teruggestuurd naar de rekeneenheid.

Energieverbruik in vergelijking

Een vergelijking van de processorprestaties per watt verbruikte elektriciteit toont de grotere efficiëntie van tensorprocessors aan.


CPU- en GPU-racen

Tensorprocessors berekenen een snelheid van 225.000 neurale netwerkvoorspellingen per seconde. CPU en GPU kunnen niet concurreren.

45 keer sneller dan conventionele processor

Hoewel de CISC-instructieset (Complex Instruction Set Computer) van een tensorprocessor complexe opdrachten kan verwerken, zijn er slechts een tiental. En voor de meeste vereiste handelingen zijn slechts vijf instructies nodig, inclusief leesinstructies, het uitvoeren van matrixvermenigvuldiging of het evalueren van de activeringsfunctie.

Door het optimaliseren van kunstmatige intelligentieberekeningen zijn tensorprocessors aanzienlijk sneller dan conventionele processors (45 keer) of grafische processors (17 keer). Tegelijkertijd werken ze met een grotere energie-efficiëntie.

En Google staat nog maar aan het begin van de reis: met behulp van eenvoudige maatregelen kunnen de prestaties van tensorprocessors verder worden verhoogd. Alleen al het installeren van GDDR5 RAM kan uw huidige verwerkingskracht verdrievoudigen.

De machine learning van Google blokkeert spam met een effectiviteit van 99,9%

27 februari

In zijn blog kondigde Google het gebruik aan van machine learning op basis van TensorFlow, dat voorkomt dat spam Gmail bereikt.

Deze technologie is in staat 99,9% van de spam te blokkeren, wat fysiek betekent dat er elke dag 100 miljoen extra spamberichten worden uitgefilterd.

“Waar hebben we deze 100 miljoen extra spamberichten gevonden? We blokkeren nu categorieën spam die voorheen zeer moeilijk te detecteren waren. Het gebruik van TensorFlow heeft ons geholpen berichten met afbeeldingen, berichten met verborgen ingesloten inhoud en berichten van nieuw aangemaakte domeinen die spamberichten met een laag volume tussen legitiem verkeer proberen te verbergen, te blokkeren.

Aangezien we de overgrote meerderheid van de spam op Gmail al hebben geblokkeerd, is het een hele prestatie om nog eens miljoenen spam met deze nauwkeurigheid te blokkeren. TensorFlow helpt ons spammers te vangen die door die minder dan 0,1% sluipen zonder per ongeluk berichten te blokkeren die belangrijk zijn voor gebruikers.".

Google Lens heeft miljarden objecten leren herkennen

3 januari

Google zei dat zijn fototool voor kunstmatige intelligentie, Lens, nu meer dan een miljard objecten kan identificeren.

Dit is een merkbare toename van de mogelijkheden vergeleken met de eerste versie van het hulpprogramma, dat aanvankelijk ongeveer 250 duizend objecten kon identificeren. Het instrument is getraind Google-systeem Diepe geest.


Tegelijkertijd werden een miljard artikelen verkregen uit de artikelen die in Google Shopping werden gepresenteerd. Dit betekent dat je onder hen geen dingen kunt vinden die niet in de uitverkoop zijn. Zelfs gameconsoles uit de jaren 90 of eerste edities van oude boeken zijn via Lens niet meer te vinden. Onder moderne producten zal het echter gemakkelijk zijn om een ​​positie te vinden.


Google gebruikt AI om vluchtvertragingen te voorspellen

2 februari 2018

Informatie over vluchtvertragingen is erg nuttig, maar de aankondiging van vertragingen is vaak afhankelijk van de luchtvaartmaatschappij en die is niet altijd geïnteresseerd in het snel bijwerken van informatie. Nu gaat Google hierbij helpen.

Het bedrijf heeft zijn dienst Vluchten geüpdatet, waarbij het niet alleen mogelijke vluchtvertragingen begon te melden, maar ook de waarschijnlijkheid ervan inschatte. Om dit te doen, gebruikt het machine learning-systeem historische gegevens om vertragingen te voorspellen en vluchten te markeren als er meer dan 80% kans op vertraging is. Tegelijkertijd merkt Google op dat je nog steeds niet te laat moet zijn voor het vliegtuig, want zelfs een waarschijnlijkheid van 99% betekent niet dat het vliegtuig niet op schema vliegt. Maar zo'n voorspelling kan u vertellen hoeveel extra tijd u op de luchthaven zult moeten doorbrengen.

Bovendien helpt de bijgewerkte Google-service u te besparen op uw vlucht. Tot nu toe werkt het voor 3 luchtvaartmaatschappijen: American, Delta en United. Dankzij nieuwe functies kunt u de kosten van extra diensten tegen lage tarieven, zoals meer handbagage of overbagage, inschatten en deze kosten ook vergelijken met de kosten van reguliere tickets.

Zie jij de lamantijn op de foto?

15 december 2017

Google gebruikt kunstmatige intelligentie niet alleen om zijn diensten te verbeteren, maar ook om milieuactivisten en wetenschappers te helpen, waarmee het zijn titel als ‘goed bedrijf’ opnieuw bevestigt.

Het open-source neurale netwerk TensorFlow is het hart geworden van een project dat helpt de populatie zeekoeien en zeekoeien in stand te houden.

Ondanks hun indrukwekkende omvang kan het voor biologen behoorlijk moeilijk zijn om hun bewegingen te volgen. Om dit te doen, voerden de onderzoekers luchtfotografie van de oceaan uit met drones, maar het vinden van zelfs zulke grote dieren is een zeer moeilijke taak. Voor een persoon.

Hier is zo'n foto genomen vanaf een drone:

Zie jij er een lamantijn op?

Scroll naar beneden voor het antwoord.


Met behulp van de open-source TensorFlow-software van Google hebben onderzoeker Amanda Hodgson van de Murdoch Universiteit en haar team een ​​detector gemaakt die zeekoeien op foto's kan vinden. Vroege versies van de detector konden 80% van deze dieren vinden op een luchtfoto gemaakt door een drone. In de toekomst hopen de onderzoekers dat AI zijn werk zal verbeteren.

Wetenschappers geloven ook dat kunstmatige intelligentie kan worden aangepast om te zoeken naar andere grote zoogdieren, zoals bultruggen en zelfs dolfijnen.

De kunstmatige intelligentie van Google verslaat Bing en Siri in IQ-test

2 november 2017

Drie onderzoekers, Feng Liu, Yong Shi en Ying Liu, ontwikkelden een IQ-test gericht op het testen van verschillende AI-systemen.

Volgens hun resultaten bleek de AI van Google de slimste, met een score van 47,8 punten. Ter vergelijking: de score van een 18-jarige is 96 punten en die van een zesjarige is 55,5.

De belangrijkste concurrenten van Google zijn behoorlijk achtergebleven. Zo scoorden Bing en Baidu respectievelijk 31,98 en 32,92 punten. De slechtste prestatie was Apple's Siri, met een score van 23,9.

De onderzoekers merkten op dat hoewel de beste kunstmatige intelligentie een zesjarig kind niet eens bereikt, ze de kloof snel dichten. In 2014 scoorden Google en Baidu AI respectievelijk 26,5 en 23,5 punten. Dit betekent een toename van 80% in intelligentie in slechts twee jaar (voor Google), dus de zorgen van Elon Musk om ons tot slaaf te maken van onze eigen computers zijn misschien niet geheel ongegrond.

Het onderzoek verdeelt kunstmatige intelligentie ook in gradaties en typen, afhankelijk van de gebruiksrichting. Met volledig onderzoek is het mogelijk bekijk deze link.

Google sprak over de tweede generatie TPU

26 mei 2017

Tijdens de Google I/O-conferentie demonstreerden de organisatoren de tweede generatie van de Tensor Processing Unit (TPU), die wordt gebruikt in de kunstmatige intelligentie van het bedrijf.

Het nieuwe processormodel kan zowel voor training als voor het zoeken naar relaties worden gebruikt. En het systeem van vier nieuwe Cloud TPU belooft machine learning-systeemprestaties van 180 teraflops. Volgens Google is deze chip aanzienlijk productiever dan GPU-gebaseerde oplossingen en daarom is het bedrijf van plan het Cloud-platform aan commerciële ontwikkelaars aan te bieden.

In termen van prestaties legde Google uit dat het trainen van een groot vertaalmodel een volledige dag in beslag neemt op 32 top-GPU's. Hetzelfde werk duurt 6 uur op een achtste van het cluster, of op 8 TPU's.

Google introduceerde de eerste generatie TPU in 2015. Deze verwerkers worden gebruikt in een groot aantal clouddiensten van het bedrijf, waaronder zoeken, vertalen en Google Foto's.

Google TPU verwerkt gegevens 15 keer sneller dan conventionele componenten

29 april 2017

Twee jaar geleden creëerde Google zijn eigen geïntegreerde circuit, de Tensor Processing Unit, dat is ontworpen voor de computationele fase van machine learning-taken.

Het bedrijf zei aanvankelijk dat de TPU de prestaties per watt bij typische taken tot tien keer zou moeten verbeteren ten opzichte van traditionele CPU's en GPU's. En nu, na operationele ervaring te hebben opgedaan, heeft het bedrijf een onderzoek uitgevoerd naar de impact van de prestaties van dit soort chips.

Het bleek dat de tienvoudige toename van de energie-efficiëntie te bescheiden was. De prestaties zijn zelfs 30 tot 80 keer zo groot geworden als bij conventionele oplossingen en afhankelijk van het scenario. In termen van regelrechte prestaties zegt Google dat de TPU 15 tot 30 keer sneller is dan standaardhardware.

Deze processor voert aangepaste software uit op basis van het TensorFlow machine learning-framework, en een deel van deze versnelling is te danken aan dit framework. De auteurs van het onderzoek merkten op dat programmeurs nog steeds ruimte hebben voor optimalisatie.

Google zag zes jaar geleden de noodzaak van TPU in. Het bedrijf maakt gebruik van deep learning in verschillende projecten, waaronder het zoeken naar afbeeldingen, fotografie en vertaling. Machine learning is van nature een proces dat behoorlijk veel middelen vergt. De technici van Google merkten bijvoorbeeld op dat als mensen drie minuten per dag spraakherkenning zouden gebruiken, en dit zou worden uitgevoerd zonder TPU, het bedrijf het aantal datacenters zou moeten verdubbelen.

Google zal Hollywood-beeldvergroting bieden

22 februari 2017

We kennen het concept van het verbeteren van gepixelde beelden uit veel Hollywood-films, maar zoals bijna altijd staat de echte technologie ver af van de bioscoop. Ingenieurs van Google Brain hebben echter een manier bedacht om sciencefiction dichter bij de realiteit te brengen.

De nieuwe technologie maakt gebruik van een paar neurale netwerken die afbeeldingen van 8x8 pixels verwerken om het daarachter verborgen gezicht van de persoon na te bootsen. Natuurlijk vergroten neurale netwerken een beeld niet zonder pixelvorming, maar creëren ze een nieuw beeld dat op het origineel kan lijken.

Zoals hierboven vermeld, zijn er twee neurale netwerken betrokken bij het reconstrueren van een gezicht. De eerste brengt een afbeelding van 8x8 pixels in kaart in een soortgelijk uitziende afbeelding met een hogere resolutie. Deze afbeelding wordt gebruikt als skelet voor een tweede netwerk, dat meer details aan de afbeelding toevoegt op basis van bestaande afbeeldingen met vergelijkbare pixelkaarten. De resulterende beelden van de twee netwerken worden vervolgens gecombineerd om het uiteindelijke beeld te creëren.

Natuurlijk is het opnieuw gemaakte beeld verre van de werkelijkheid, dus deze technologie is nutteloos voor inlichtingendiensten, maar het is nuttig bij het verwerken van beelden als extreme vergroting nodig is.

De RAISR-technologie van Google vermindert het beeldverkeer met vier keer

28 januari 2017

Bijna alle tarieven van mobiele operators vereisen een beperkt datagebruik, en Google heeft zich ten doel gesteld het verbruik aanzienlijk te verminderen door de beeldcompressietechnologie RAISR te ontwikkelen - Rapid and Accurate Image Super-Resolution (snel en nauwkeurig beeld met superresolutie).

In wezen is deze technologie geen traditionele compressiemethode, maar eerder een kunstvorm die wordt uitgevoerd door een machinaal leersysteem. Zo vergroot RAISR miniaturen van afbeeldingen verkregen met een lagere resolutie met behulp van speciale machine learning-algoritmen. Uiteindelijk herstelt kunstmatige intelligentie de ontbrekende details, waardoor het beeld weer zijn oorspronkelijke uiterlijk krijgt. Als gevolg hiervan kan het beeldoverdrachtverkeer met 75% worden verminderd in vergelijking met het origineel, terwijl de meeste zichtbare details behouden blijven.

Tot nu toe biedt Google deze technologie alleen aan voor de Google+-service en alleen voor afbeeldingen die op de service worden geplaatst. “In de komende weken zal het bedrijf de reikwijdte van de technologie uitbreiden naar zijn andere diensten.

Het is onduidelijk of Google deze technologie alleen voor zijn eigen diensten zal gebruiken, of het zal verspreiden zoals Brotli, maar we zouden zeker graag zien dat het sites met veel afbeeldingen, zoals sociale netwerken en online winkels, aanstuurt.

De kunstmatige intelligentie van Google heeft zijn eigen taal uitgevonden

29 november 2016

Er is geen reden tot paniek, maar de kunstmatige intelligentie van Google heeft per ongeluk (of niet) zijn eigen geheime taal gecreëerd. En deze taal is onafhankelijk uitgevonden door de Neural Machine Translation (NMT), zonder menselijke tussenkomst.

Google heeft in september een nieuwe neurale vertaalmachine geïntroduceerd, en deze is vrij recentelijk geïntroduceerd. Met het nieuwe systeem kun je hele zinnen vertalen zonder ze in delen te verdelen, waardoor de betekenis beter wordt overgebracht. Het NMT-systeem is zelflerend, wat betekent dat het zichzelf verbetert terwijl het werkt.

Het systeem werd eerst gebruikt om de vertaling van Engels naar Koreaans en vice versa te verbeteren, en vervolgens van Engels naar Japans en vice versa. Ingenieurs waren geïnteresseerd om te zien of de machine tekst van het Koreaans naar het Japans kon vertalen zonder Engels ertussen. En het antwoord bleek “ja”, de machine vertaalde de tekst direct.

Hoe Google AI dit heeft bereikt, is een beetje onduidelijk. Het bleek dat NMT zijn eigen interne taal "interlingua" creëerde. Het gaat over concepten en zinsstructuren in plaats van gelijkwaardige woorden. Als gevolg hiervan produceert NMT nauwkeurigere vertalingen dan voorheen. De makers van de neurale machinevertaler zijn niet zeker van de werkingsprincipes van het neurale netwerk en kunnen niet zeggen hoe directe vertaling tussen talen wordt onderwezen. Met andere woorden: de kunstmatige intelligentie van Google heeft een eigen taal gecreëerd die wij mensen niet volledig kunnen begrijpen.

Google Translate is zojuist slimmer geworden

26 november 2016

Google beweert dat het erin is geslaagd machinevertalingen natuurlijker te maken door deze voor smartphones en webapplicaties aan te bieden.

De zoekgigant merkte op dat het nu ‘neurale machinevertaling’ gebruikt, waardoor het een hele zin kan vertalen in plaats van deze in delen te splitsen en vervolgens verder te vertalen. Het resultaat is dat de resulterende tekst natuurlijker is en een betere syntaxis en grammatica heeft.

“Er zijn in één verandering meer verbeteringen bereikt dan in 10 jaar.”, zegt Google Translate-productleider Barak Turowski.

Naast Engels nieuw systeem vertaling is beschikbaar voor nog acht van de 103 talen die door het systeem worden ondersteund. Zo ondersteunt “neurale” vertaling Frans, Duits, Spaans, Portugees, Chinees, Japans, Koreaans en Turks. Het bedrijf merkte op dat deze talen 35% uitmaken van alle vertalingen die door de dienst worden uitgevoerd. Volgens Turowski is deze methode Hiermee kunt u het aantal fouten met 55% tot 85% verminderen.

Google heeft geleerd moeilijke vragen te beantwoorden

19 november 2015

Samen met de ontwikkeling intelligente systemen Microsoft en Apple, Google Assistant laat ook een doorbraak zien. Dat maakte het bedrijf nu in zijn blog bekend Google-app is veel slimmer geworden omdat het nu complexe vragen begrijpt en beantwoordt die het voorheen niet aankon.

Google kan nu de betekenis achter een vraag begrijpen en ook het doel van de gestelde vraag begrijpen.

De virtuele assistent begrijpt nu bijvoorbeeld:

  • Vergelijkende graad (hoogste, grootste, etc.);
  • Geordende zoekopdrachten (wie is de langste Maverick-speler?);
  • Temporary Connections (Welk nummer heeft Taylor Swift in 2014 opgenomen?);
  • Complexe combinaties (Wat was de Amerikaanse bevolking toen Bernie Sanders werd geboren?).

Als u de juiste Google-applicatie op uw smartphone of tablet heeft, kunt u deze al soortgelijke complexe vragen stellen. Natuurlijk is het zoeken naar informatie op een smartphone niet erg handig, maar als je er nu als een persoon mee kunt praten, waarom zou je hem dan niet vaker gebruiken?

Google opent broncode voor machine learning-systeem

12 november 2015

Om zoveel mogelijk ontwikkelaars aan te trekken en de ontwikkeling van technologie te versnellen, besloot Google de kunstmatige intelligentie-engine, bekend als TensorFlow, open source te maken.

Het bedrijf is al een tijdje bezig met dit project en het systeem heeft zijn vruchten kunnen afwerpen in bijvoorbeeld Google Foto's, waardoor mensen en plaatsen op foto's kunnen worden geïdentificeerd. De technologie werkt ook in de e-mailclient Inbox, die e-mail scant om de voorbereiding van antwoorden te vergemakkelijken.

Google-CEO Sundar Pichai schreef op zijn blog: “Nog maar een paar jaar geleden kon je in een drukke straat geen Google-app bedienen, borden in het Russisch lezen met Google Translate, of meteen foto’s van je Labradoodle vinden in Google Foto’s. Onze apps waren niet slim genoeg. Maar in korte tijd werden ze veel, veel slimmer. Dankzij machine learning kun je al deze dingen nu heel gemakkelijk doen.".

De directeur merkte op dat het systeem “TensorFlow is sneller, slimmer en flexibeler dan de onze oud systeem, zodat het veel gemakkelijker en rijker kan worden aangepast aan nieuwe producten. Tegenwoordig openen we ook TensorFlow met open source. We hopen dat dit de machine learning-gemeenschap, van academici tot ingenieurs tot hobbyisten, in staat zal stellen ideeën veel sneller te delen via werkende code in plaats van alleen maar documenten te bestuderen.".

Google heeft de spraakherkenning verbeterd

29 september 2015

Van alle grote bedrijven die stemfuncties, Google onderscheidt zich. In tegenstelling tot Apple's Siri en Microsoft's Cortana personaliseert Google zijn stemassistent niet. Bovendien beschikt Google over het beste herkenningsalgoritme, dat nu aanvullende verbeteringen heeft ondergaan.

In een recent bericht op de Google Research Blog besprak een vertegenwoordiger van het spraakonderzoeksteam recente wijzigingen in het herkenningsalgoritme. Het bedrijf maakt al gebruik van een diep neuraal netwerk, hetzelfde netwerk dat vreemde beelden produceert met ‘dromen’ van kunstmatige intelligentie, om te begrijpen wat u nu precies aan uw telefoon probeert te vertellen. Nu heeft het bedrijf een recursief neuraal netwerk ontwikkeld en in gebruik genomen. Nieuw algoritme Met spraakmodellering kunnen ze rekening houden met temporele afhankelijkheden, waardoor ze elk stukje audio beter kunnen analyseren door naar binnenkomende geluiden te verwijzen.

Als gevolg hiervan zullen gebruikers snellere en nauwkeurigere spraakherkenning ervaren. Het bedrijf beweert ook dat het nieuwe algoritme beter bestand is tegen herkenning in luidruchtige omgevingen. Het nieuwe spraakherkenningsalgoritme is al gelanceerd voor zoekapplicaties op iOS en Android, maar ook voor stemtypen.

Google ontwikkelt een algoritme om calorieën uit foto's te berekenen

20 juni 2015

Google heeft een patent aangevraagd voor de Im2Calories-technologie, die een foto van voedsel analyseert en het geschatte aantal calorieën in dat voedsel schat.

De Im2Calories-technologie is gebaseerd op een reeks kunstmatige intelligentie-algoritmen, en de fotoanalysetool zal uiteraard niet erg nauwkeurig het geschatte aantal calorieën in het voedsel op de genomen foto schatten.

Dit project is nog in ontwikkeling en de verschijning ervan wordt pas over een paar jaar verwacht. Het is waarschijnlijk dat Im2Calories in de toekomst beschikbaar zal zijn als apps voor Android en iOS.

Een andere interessante plek om het algoritme te gebruiken zijn de bronnen van Twitter en Instagram, omdat mensen daar het vaakst foto's van hun eten posten. Het product gebruiken eigen netwerk Google+ is onwaarschijnlijk, omdat de zoekgigant weinig interesse heeft in het ondersteunen van het platform.

Nu kun je vergelijkbare applicaties vinden voor beide populaire mobiele platforms, maar er bestaat geen twijfel over dat Google een beter product zal kunnen maken, dankzij de uitstekende kunstmatige intelligentiesystemen die het bedrijf ontwikkelt.

Als je je altijd hebt afgevraagd wat er in de neuronen van neurale netwerken gebeurt, kan Google het je eindelijk uitleggen. Het bedrijf heeft een selectie vrijgegeven experimentele diensten, die laten zien waartoe moderne kunstmatige intelligentie in staat is.

De meest interessante daarvan is Quick, Draw! - stelt voor om een ​​soort "krokodil" te spelen. Het is jouw taak om binnen 20 seconden een bepaald object te tekenen, bijvoorbeeld een wortel, een fiets, een bal, een gezicht, enzovoort. Gedurende dezelfde tijd zou het programma moeten herkennen wat u precies probeerde weer te geven. Terwijl je onhandige lijnen tekent met de cursor, gooit het neurale netwerk opties weg totdat het de juiste herkent.

Tegelijkertijd leert het, zoals het een neuraal netwerk betaamt, op basis van de tekeningen van andere gebruikers. En hoe meer plaatjes de AI ziet, hoe sneller hij het juiste antwoord kan vinden. In deze krabbels herkende het neurale netwerk bijvoorbeeld binnen enkele seconden een krokodil. Zou je dat kunnen?

Een andere leuke dienst heet Giorgio Cam. Hij kan objecten identificeren die hij in de camera ziet. Hier zijn de resultaten niet zo indrukwekkend en heeft de AI vaak ongelijk. Het gebrek aan nauwkeurigheid wordt echter gecompenseerd door de presentatie. Het proces van het identificeren van een object wordt begeleid door speelse elektronische muziek, en het neurale netwerk legt ritmisch de antwoordmogelijkheden op de maat uit. Het ziet er allemaal behoorlijk griezelig, maar fascinerend uit.

Over het algemeen is de AI nog steeds vrij primitief en is uiteraard niet in staat om met een effectief plan te komen om de mensheid over te nemen. Maar dat is het voor nu.

Je kunt alle vermakelijke experimenten van Google op het gebied van het creëren van kunstmatige intelligentie bekijken.

Google heeft in Zürich een nieuw onderzoekscentrum geopend, Google Research, dat zich gaat richten op machine-intelligentie. Nu is het een van de grootste onderzoekscentra op het gebied van de ontwikkeling van kunstmatige intelligentie buiten de Verenigde Staten. De ontdekking ervan houdt verband met de nieuwe strategie van Google, die de actieve introductie van machine-intelligentie in diensten en applicaties inhoudt. Tegenwoordig gebruikt het bedrijf de ontwikkelingen op dit gebied in producten als Translate en Photos. En op de Google I/O 2016-conferentie werden een messenger en een smart home-apparaat gepresenteerd, die ook gebruik maken van machine-intelligentie. Met de opening van een nieuw onderzoekscentrum in Zürich wil Google een belangrijke doorbraak op dit gebied realiseren. Wij konden de opening van dit centrum bijwonen en leren hoe en waarom het bedrijf kunstmatige intelligentie ontwikkelt.

Hoe creëert Google kunstmatige intelligentie?

Het in Zürich geopende onderzoekscentrum zal zich richten op de ontwikkeling op drie belangrijke gebieden voor kunstmatige intelligentie: machinaal leren, machinale perceptie en natuurlijke spraakverwerking en -verstaan. Ze zijn allemaal nodig om de volgende generatie computers te creëren die kunnen leren van mensen en de wereld om hen heen.

Machinaal leren

Machine- of kunstmatige intelligentie wordt vaak verward met machine learning, en hoewel de eerste niet kan bestaan ​​zonder de laatste, zijn ze gebaseerd op iets andere principes. Het concept van ‘kunstmatige intelligentie’ zelf impliceert de creatie van een computer die denkt, terwijl ‘machine learning’ de ontwikkeling is van computers die kunnen leren. “Het programmeren van een computer om slim te zijn kan moeilijker zijn dan het programmeren van een computer om te leren slim te zijn”, legt Greg Corrado, een senior machine learning-onderzoeker bij Google, het verschil uit.

Elke Gmail-gebruiker kan vandaag de dag de kracht van machine learning ervaren. Waar het spamfilter van de dienst vroeger strikte regels volgde met trefwoorden, leert het tegenwoordig van voorbeelden. Terwijl het e-mail filtert, wordt het steeds beter. Dit is een van de meest eenvoudige voorbeelden gebruik van machine learning, maar vandaag Google al creëert complexere zelflerende systemen.

Om dit te doen, gebruikt het bedrijf drie methoden van machine learning:

1. Begeleide opleiding- dit is leren door het voorbeeld te geven, net zoals het spamfilter van Gmail e-mail filtert en steeds meer voorbeelden van spammailings ontvangt. Het enige probleem met deze methode: om effectief te zijn, moet je dit hebben groot aantal kant-en-klare voorbeelden.

2. Ongecontroleerd leren- dit is dataclustering, de computer wordt voorzien van objecten zonder beschrijving en probeert interne patronen, afhankelijkheden en relaties daartussen te vinden. Omdat de gegevens aanvankelijk niet gelabeld zijn, is er geen foutsignaal of beloning voor het systeem en kent het de juiste oplossing niet.

3. Versterkend leren- deze methode heeft betrekking op “supervised learning”, maar hier worden de gegevens niet alleen in de computer ingevoerd, maar worden ze gebruikt om problemen op te lossen. Als de beslissing juist is, krijgt het systeem een ​​positieve reactie, die het onthoudt en daarmee zijn kennis versterkt. Als de oplossing onjuist is, krijgt de computer een negatief antwoord en moet hij een andere manier vinden om het probleem op te lossen.

Tegenwoordig maakt Google voornamelijk gebruik van begeleid leren voor zijn diensten, maar het bedrijf merkt op dat ‘versterkend leren’ mogelijk een nog groter potentieel heeft. Het was de combinatie van deze twee methoden die werd gebruikt om de kunstmatige intelligentie AlphaGo te creëren, die professionele Go-spelers kon verslaan. Eerst versloeg de computer de Europese Go-kampioen Fan Hui (2e dan) met een score van 5-0, en speelde toen met Lee Sedol, een 9e dan-speler (de hoogste rang in Go), en opnieuw was de eindscore 4- 1 geen voorstander van persoon.

Waarom is de overwinning van kunstmatige intelligentie in het spel Go zo belangrijk voor de ontwikkeling van machinaal leren? Feit is dat het spel zelf erg moeilijk is voor een computer. Go gebruikt een gobanbord van 19x19 lijnen waarop de ene speler zwarte stenen plaatst en de andere speler witte stenen in een poging een zo groot mogelijk deel van het bord te veroveren. In tegenstelling tot schaken, waarbij elk stuk een duidelijk gedefinieerde positie en bewegingen heeft, worden spelers in Go alleen beperkt door het bord. Daarom gebruiken ze tijdens het spel niet alleen kennis, maar ook intuïtie. Voor de computer is de extra complexiteit het enorme aantal mogelijke posities (10^170), en het is ook moeilijk om te beoordelen wie het spel wint.

Daarom zijn er voor AlphaGo twee neurale netwerken ontwikkeld. De eerste heet het “waardenetwerk”, het evalueert de positie van de stenen op het veld met getallen van -1 tot 1 om te bepalen welke stenen aan de leiding staan: wit (-1) of zwart (1). Als de positie in evenwicht is en elke speler kan winnen, zal de waarde dicht bij 0 liggen. Het neurale netwerk scant het bord en evalueert de positie van de stenen, waarna het begint te begrijpen hoe voordelig de witte en zwarte stenen zich bevinden. Het tweede neurale netwerk werd het ‘beleidsnetwerk’ genoemd. Op basis van expertgegevens over zetten in Go stelt ze een kaart op, waarop ze bepaalt welke zetten in deze positie het meest succesvol zullen zijn.

Het “waardenetwerk” stelt AlphaGo dus in staat de positie van de stenen op het bord te begrijpen en te bepalen wie er wint, en het “beleidsnetwerk” maakt het gemakkelijker voor het zoekalgoritme om mogelijke zetten te selecteren, omdat het deze beperkt afhankelijk van de positie. van de stenen.

Voordat we verder gaan, is het belangrijk om te begrijpen wat een ‘neuraal netwerk’ is? Helaas bestaat er tegenwoordig geen enkele formele definitie van ‘kunstmatig neuraal netwerk’. Als je het in eenvoudige woorden probeert uit te drukken: een neuraal netwerk is een reeks wiskundige modellen die zijn gemaakt op basis van het werkingsprincipe van biologische neurale netwerken. Kunstmatige neuronen ( eenvoudige processoren) maken verbinding met elkaar, ontvangen het signaal, verwerken het en sturen het verder naar het volgende neuron. Elk neuron is een eenvoudige wiskundige functie, maar door samen te werken kunnen ze complexe problemen oplossen.

Hoe werden neurale netwerken getraind voor AlphaGo?

“We zijn begonnen met gegevens van professionele Go-spelers. Omdat partijen meestal worden opgenomen, hadden we veel paren: positie plus de zet waarmee dit werd bereikt. Eén spel geeft ons ongeveer 300 van dergelijke paren. Elke zet in zo'n spel is professioneel, omdat deze door een expert wordt gemaakt. We gebruikten ‘supervised learning’ om het neurale netwerk te leren voorspellen welke beweging een professionele speler in die positie zou maken. Zo ontstond een ‘netwerk van beleid’. Vervolgens lieten we het neurale netwerk tegen zichzelf spelen, zowel vanuit de positie van zwarte als witte stenen. We hebben de resultaten van deze spellen terug in het neurale netwerk geladen. Dit is al ‘reinforcement learning’, het is nog niet zo goed onderzocht, maar wij geloven dat dit de toekomst van machinaal leren is. Bovendien ontvingen we, dankzij het neurale netwerk dat tegen zichzelf speelde, een grote hoeveelheid gegevens over de positie van de stenen op het bord, evenals de uitkomst van de spellen. Op basis daarvan hebben we een ‘betekenisnetwerk’ getraind dat leerde begrijpen in welke posities zwarte stenen winnen en in welke witte. Scoren is een zeer belangrijke parameter voor het maken van een spelprogramma en machine learning in het algemeen, omdat je een manier nodig hebt om de voortgang in het spel te bepalen”, zegt Thore Graepel, wetenschappelijk onderzoeker bij het DeepMind-project van Google, dat AlphaGo heeft ontwikkeld.

Hoewel AlphaGo professionele Go-spelers heeft verslagen en gemakkelijk andere kunstmatige intelligenties verslaat die voor het spel zijn ontwikkeld, is dit niet de enige opmerkelijke prestatie van het systeem. In het tweede spel met Lee Sedol maakte AlphaGo een zeer ongebruikelijke zet 37 op regel 5, die aanvankelijk niet succesvol leek, maar vervolgens toestond dat de computer dit deel van het bord overnam. Feit is dat de deskundige informatie die in AlphaGo werd geladen dergelijke zetten niet bevatte, en er kan van worden uitgegaan dat dit een van de eerste uitingen van creativiteit was bij de uitvoering van een computer.

Tegenwoordig gebruikt Google de open source softwarebibliotheek TensorFlow voor machine learning. Het is een API van de tweede generatie die zowel voor onderzoek werkt als voor de commerciële producten van Google die gebruik maken van machine learning, waaronder zoeken, spraakherkenning, Gmail en Foto's.

Machine-perceptie

Een ander belangrijk gebied voor de ontwikkeling van kunstmatige intelligentie is machineperceptie. Hoewel computers de afgelopen tien jaar grote vooruitgang hebben geboekt bij het herkennen van geluiden, muziek en handgeschreven tekst, worstelen ze nog steeds met het herkennen van afbeeldingen en video's. Het menselijke visuele systeem herkent gemakkelijk beelden; in elke hersenhelft van onze hersenen bevindt zich een primaire visuele cortex (visueel gebied V1), die 140 miljoen neuronen bevat met tientallen miljarden verbindingen daartussen. En toch gebruikt het menselijk brein bovendien de extrastriate visuele cortex (gebieden V2, V3, V4 en V5) voor beeldherkenning. Daarom is het voor ons geen groot probleem om een ​​grijze kat op een grijs tapijt te zien liggen. Maar dit is een zeer moeilijke taak voor een computer.

Voorheen catalogiseerde Google foto's op beschrijving. De gebruiker moest tags aan de foto's toevoegen, zodat ze later konden worden gegroepeerd of gevonden. Tegenwoordig maakt Google Foto's gebruik van geavanceerdere beeldherkenning op basis van een ‘convolutioneel neuraal netwerk’. Deze architectuur, ontwikkeld door wetenschapper Yann LeCun, beschikt over een van de beste algoritmen voor beeldherkenning. Zonder in details te treden: het is een meerlaagse structuur van kunstmatige neuronen, waarvan elke laag slechts een klein deel van het invoerbeeld als invoer gebruikt. Met behulp van het Deep Dream-project kan iedereen tegenwoordig precies evalueren hoe een convolutioneel neuraal netwerk beelden ziet.

Google gebruikt openbare beelddatabases om zijn neurale netwerk te trainen. In 2012 leerde Google bijvoorbeeld een neuraal netwerk afbeeldingen van katten te herkennen met behulp van 10 miljoen kattenframes uit YouTube-video's.

Natuurlijke spraak verwerken en begrijpen

Om ervoor te zorgen dat de computer niet alleen spraakopdrachten, maar ook natuurlijke spraak begrijpt, maakt Google gebruik van terugkerende neurale netwerken.

Traditionele spraakherkenning verdeelt geluiden in kleine stukjes van 10 milliseconden audio. Elk dergelijk fragment wordt geanalyseerd op frequentie-inhoud, en de resulterende vector van kenmerken passeert een akoestisch model, dat een waarschijnlijkheidsverdeling voor alle geluiden oplevert. Vervolgens koppelt het systeem, in combinatie met andere spraakkenmerken, via een uitspraakmodel de reeks klanken van correcte woorden in de taal en in het model, en bepaalt zo hoe waarschijnlijk een bepaald woord is in de taal die wordt gebruikt. Ten slotte analyseert het taalmodel de resulterende woorden en de hele zin, en probeert te beoordelen of een dergelijke reeks woorden in deze taal mogelijk is. Maar voor sommige woorden in fonetische notatie is het moeilijk om te bepalen waar de ene letter eindigt en de andere begint, en dit is erg belangrijk voor een correcte herkenning.

Google gebruikt nu een akoestisch model gebaseerd op een terugkerend neuraal netwerk met een ‘lange-kortetermijngeheugen’-architectuur. In eenvoudige woorden: dit neurale netwerk is beter dan andere in het onthouden van informatie, waardoor het mogelijk werd om het te trainen om fonemen in een zin te herkennen, en dit verbeterde de kwaliteit van het herkenningssysteem aanzienlijk. Daarom werkt stemherkenning op Android tegenwoordig bijna in realtime.

Kunstmatige intelligentie: helper of bedreiging?

De ethische kant van het gebruik van kunstmatige intelligentie staat altijd op de agenda, geeft Google toe. Het bedrijf gelooft echter nog niet dat we dichtbij genoeg zijn om computers te maken die zelfbewust zijn om dit onderwerp in detail te bespreken. “Computers leren langzaam”, zegt Greg Corrado. Voorlopig kan Google kunstmatige intelligentie bouwen die goed is in één taak, zoals het spel Go, zoals AlphaGo. Maar voor volwaardige kunstmatige intelligentie zal vele malen meer rekenkracht nodig zijn. Tegenwoordig zien we dat de prestaties van processors afnemen, we hebben bijna de limiet van “de wet van Moore” bereikt, en hoewel dit gedeeltelijk wordt gecompenseerd door het verhogen van de prestaties van videokaarten en de opkomst van gespecialiseerde processors, is dit nog steeds niet genoeg. Een ander obstakel is bovendien het gebrek aan voldoende deskundige informatie die kan worden gebruikt voor machinaal leren. De mensheid kan al deze, en niet alleen, problemen binnen 20, 50 of 100 jaar oplossen, anders kan het nooit opgelost worden; niemand kan een nauwkeurige voorspelling geven. Dienovereenkomstig zal de kunstmatige intelligentie die we in films zien waarschijnlijk heel anders zijn dan wat we uiteindelijk krijgen.

De manusje-van-alles en de toekomst van Google Zoeken

Google stelt zichzelf momenteel een realistischer doel: virtuele assistenten creëren op basis van kunstmatige intelligentie. Tegenwoordig zijn er al virtuele assistenten als Siri of Google nu, maar ze zijn zeer beperkt en staan ​​los van de realiteit waarin de gebruiker zich bevindt. Wat wil Google doen? Het bedrijf gelooft dat virtuele assistent moeten de wereld om ons heen begrijpen, de positie van de gebruiker in deze wereld, en ook vertrouwen op de huidige context in communicatie.

“Stel je voor dat je een ongelooflijk slimme assistent hebt en tegen hem zegt: bestudeer dit gebied en vertel me wat je ervan vindt. Dat is wat wij proberen te creëren. In mijn geval zou ik tegen mijn assistent willen zeggen: laat me de meest interessante en relevante dingen zien die ik nog niet weet”, zegt Eric Schmidt, voorzitter van de raad van bestuur van Alphabet, eigenaar van Google.

Google ziet kunstmatige intelligentie dus als een nieuw hulpmiddel dat de menselijke capaciteiten kan vergroten door hem van nieuwe kennis te voorzien. Een goed voorbeeld hiervan is AlphaGo, dat Go-spelers zien als een kans om hun niveau te verbeteren. Als je traint tegen kunstmatige intelligentie die de maximale rang in het spel al overschrijdt, kan dit het naar een nieuw niveau tillen.