How Machine Learning in Search Works: Everything You Need to Know
Deze 4 SEO Case Studies zullen je enthousiast maken
Wilt u zien hoe we in een paar maanden tijd het organische verkeer met 848% verhogen? Klik hier! .In de wereld van SEO is het belangrijk om het systeem te begrijpen waarvoor u optimaliseert.
U moet begrijpen hoe:
- Zoekmachines crawlen en indexeren websites .
- Zoekalgoritmen functie .
- Zoekmachines behandelen gebruikersintentie als een rangordesignaal (en waar ze waarschijnlijk mee gaan).
Een ander cruciaal gebied om te begrijpen is machinaal leren.
Nu wordt de term "machine learning" tegenwoordig veel rondgegooid.
Maar hoe beïnvloedt machinaal leren daadwerkelijk het zoeken en SEO?
In dit artikel wordt alles besproken wat u moet weten over hoe zoekmachines machinaal leren gebruiken.
Wat is Machine Learning?
Het zou moeilijk zijn om te begrijpen hoe zoekmachines machine learning gebruiken zonder te weten wat machine learning eigenlijk is.
Laten we beginnen met de definitie (verstrekt door Stanford University in hun cursusbeschrijving voor Coursera) voordat we verder gaan met een praktische uitleg:
"Machine learning is de wetenschap om computers te laten werken zonder expliciet geprogrammeerd te zijn."
Een snelle avond voordat we doorgaan ...
Machinaal leren is niet hetzelfde als kunstmatige intelligentie (AI), maar de lijn begint een beetje wazig te worden met de applicaties.
Zoals hierboven opgemerkt, is machine learning de wetenschap om computers tot conclusies te laten komen op basis van informatie, maar zonder specifiek geprogrammeerd te zijn in het uitvoeren van genoemde taak.
AI, aan de andere kant, is de wetenschap achter het creëren van systemen die op mensachtige intelligentie en procesinformatie lijken of lijken te bezitten op een vergelijkbare manier.
Denk aan het verschil op deze manier:
Machinaal leren is een systeem dat is ontworpen om een probleem op te lossen. Het werkt wiskundig om de oplossing te produceren. De oplossing kan specifiek worden geprogrammeerd of handmatig door mensen worden uitgewerkt, maar zonder deze noodzaak komen de oplossingen veel sneller.
Een goed voorbeeld is het instellen van een machine om door allerlei gegevens te glijden die tumorgrootte en locatie aangeven zonder te programmeren in wat het zoekt. De machine zou een lijst met bekende goedaardige en kwaadaardige conclusies krijgen. Hiermee zouden we het systeem dan vragen om een voorspellend model te maken voor toekomstige ontmoetingen met tumoren om van tevoren kansen te genereren en te baseren op de geanalyseerde gegevens.
Dit is puur wiskundig.
Een paar honderd wiskundigen zouden dit kunnen doen - maar het zou vele jaren duren (uitgaande van een zeer grote database) en hopelijk zou geen van hen fouten maken. Of deze zelfde taak kan worden volbracht met machinaal leren - in veel minder tijd.
Wanneer ik echter aan kunstmatige intelligentie denk, dan begin ik te denken aan een systeem dat de schepping raakt en daardoor minder voorspelbaar wordt.
Een kunstmatige intelligentie die op dezelfde taak is gebaseerd, kan eenvoudig verwijzen naar documenten over het onderwerp en conclusies trekken uit eerdere onderzoeken. Of het kan nieuwe gegevens toevoegen aan de mix. Of zou kunnen beginnen met werken aan een nieuw systeem van elektrische motor, afgezien van de eerste taak. Het zal waarschijnlijk niet afgeleid worden op Facebook, maar je krijgt waar ik heen ga.
Het sleutelwoord is intelligentie. Hoewel het kunstmatig is, zou het, om aan de criteria te voldoen, echt moeten zijn en dus variabelen en onbekenden produceren die lijken op wat we tegenkomen wanneer we communiceren met anderen om ons heen.
Terug naar machine learning & zoekmachines
Op dit moment is wat de zoekmachines (en de meeste wetenschappers) willen evolueren machinaal leren.
Google heeft er een gratis cursus over , heeft zijn machine learning framework TensorFlow open source gemaakt en doet grote investeringen in hardware om het uit te voeren .
Kortom, dit is de toekomst dus het is het beste om het te begrijpen.
Hoewel we onmogelijk elke toepassing van machine learning kunnen vermelden (of zelfs kennen) die verder gaat in de Googleplex, laten we een paar bekende voorbeelden bekijken:
RankBrain
Welk artikel over machine learning bij Google zou compleet zijn zonder hun eerste en nog steeds uiterst relevante implementatie van een machine learning-algoritme in het zoeken te vermelden?
Dat klopt ... we praten over RankBrain .
In wezen was het systeem alleen bewapend met een goed begrip van entiteiten (een ding of een concept dat uniek, uniek, goed gedefinieerd en onderscheidbaar is) en belast met het produceren van een begrip van hoe die entiteiten in een query met elkaar in verband staan om te helpen bij het beter begrijpen van de vraag en een reeks bekende goede antwoorden.
Dit zijn brutaal vereenvoudigde uitleg van beide entiteiten en RankBrain, maar het dient onze doelen hier.
Dus Google gaf het systeem enkele gegevens (query's) en waarschijnlijk een reeks bekende entiteiten. Ik ga raden over het volgende proces, maar logischerwijs zou het systeem dan de taak krijgen om zichzelf te trainen op basis van de zaadset van entiteiten over het herkennen van onbekende entiteiten die het tegenkomt. Het systeem zou vrij nutteloos zijn als het een nieuwe filmnaam, datum, enz. Niet kon begrijpen.
Zodra het systeem dat proces had afgehandeld en bevredigende resultaten opleverde, hadden ze het dan opgedragen om te leren hoe de relaties tussen entiteiten te begrijpen en welke gegevens worden geïmpliceerd of direct worden opgevraagd en om geschikte resultaten in de index op te zoeken.
Dit systeem lost veel problemen op waarmee Google werd geplaagd.
De vereiste om trefwoorden toe te voegen zoals "Hoe vervang ik mijn S7-scherm" op een pagina over het vervangen ervan, zou niet nodig moeten zijn. U moet ook geen "oplossing" opnemen als u "vervangen" hebt opgenomen, omdat ze in dit verband over het algemeen hetzelfde impliceren.
RankBrain gebruikt machine learning om:
- Leer continu over de verbondenheid van entiteiten en hun relaties.
- Begrijp wanneer woorden synoniemen zijn en wanneer dat niet het geval is (vervangen en repareren kunnen in dit geval synoniemen zijn, maar dat zouden ze niet zijn als ik vroeg "hoe mijn auto te repareren").
- Instrueer andere delen van het algoritme om de juiste SERP te produceren.
In de eerste iteratie werd RankBrain getest op zoekopdrachten die Google nog niet eerder had gezien. Dit is volkomen logisch en het is een geweldige test.
Officiële AdWords-campagnesjablonen
Selecteer uw sector. Download uw campagnesjabloon. Op maat gemaakt met exact overeenkomende zoekwoorden en het converteren van advertentiekopieën met hoge klikfrequenties.
Als RankBrain de resultaten van query's die waarschijnlijk niet zijn geoptimaliseerd, kan verbeteren en een mix van oude en nieuwe entiteiten en services met zich meebrengt, een groep gebruikers die waarschijnlijk in eerste instantie matte resultaten behaalde, moet deze globaal worden geïmplementeerd.
En het was in 2016.
Laten we de twee resultaten bekijken die ik hierboven heb genoemd (en het vermelden waard is, ik was het stuk en het voorbeeld aan het schrijven en dacht toen om het scherm vast te leggen - dit is gewoon hoe het werkt en probeer het zelf ... het werkt in bijna alle gevallen waar verschillende bewoordingen hetzelfde betekenen):
Enkele zeer subtiele verschillen in ranglijsten waarbij de # 1 en 2 sites van plaats verwisselen, maar in de kern is het hetzelfde resultaat.
Laten we nu eens kijken naar mijn automotive-voorbeeld:
Machinaal leren helpt Google om niet alleen te begrijpen waar overeenkomsten zijn in zoekopdrachten, maar we kunnen ook zien dat als ik mijn auto moet laten repareren, ik misschien een monteur nodig heb (goed Google bellen), terwijl ik het misschien vervangt door naar onderdelen te verwijzen of met behoefte aan overheidsdocumentatie om het hele ding te vervangen.
We kunnen hier ook zien waar machine learning het nog niet helemaal heeft uitgevonden.
Als ik het vraag hoe ik mijn auto moet vervangen, bedoel ik waarschijnlijk het hele ding of heb ik het onderdeel dat ik wilde opgesomd. Maar het zal leren ... het staat nog in de kinderschoenen. Ik ben ook Canadees, dus de DMV is niet echt van toepassing.
Dus hier hebben we een voorbeeld gezien van machinaal leren in het spel bij het bepalen van de vraagbetekenis, de SERP-lay-out en mogelijke noodzakelijke acties om mijn intentie te vervullen.
Niet alles is RankBrain, maar het is allemaal machine learning.
Spam
Als u Gmail gebruikt, of vrijwel elk ander e-mailsysteem, ziet u ook machine learning op het werk.
Volgens Google blokkeren ze nu 99,9 procent van alle spam en phishing-e-mails met een vals-positief percentage van slechts 0,05 procent.
Ze doen dit met dezelfde kerntechniek - geef het machine-leersysteem wat data en laat het los.
Als men alle permutaties handmatig zou moeten programmeren die een succespercentage van 99,9 procent zouden opleveren bij het filteren van spam en on the fly zou moeten aanpassen voor nieuwe technieken, zou het een zware taak zijn als het enigszins mogelijk zou zijn. Toen ze dingen op deze manier deden, zaten ze met een slagingspercentage van 97 procent met 1 procent vals positief (wat betekent dat 1 procent van je echte berichten naar de map met spam werd gestuurd - onaanvaardbaar als het belangrijk was).
Ga naar machine learning - stel het in met alle spamberichten die u positief kunt bevestigen, laat het een model bouwen rond wat overeenkomsten zijn, voer nieuwe berichten in en geef het een beloning voor het met succes selecteren van spamberichten op zichzelf en in de loop van de tijd ( en niet veel) het zal veel meer signalen leren en veel sneller reageren dan een mens ooit zou kunnen.
Stel het in om te kijken naar gebruikersinteracties met nieuwe e-mailstructuren en wanneer het leert dat er een nieuwe spamtechniek wordt gebruikt, voeg het toe aan de mix en filter niet alleen die e-mails maar e-mails die vergelijkbare technieken gebruiken als de map met spam.
Dus hoe werkt machinaal leren?
Dit artikel beloofde een uitleg te zijn van machine learning, niet alleen een lijst met voorbeelden.
De voorbeelden waren echter nodig om een vrij eenvoudig uit te leggen model te illustreren.
Laten we dit niet verwarren met eenvoudig te bouwen, gewoon eenvoudig in wat we moeten weten.
Een veelvoorkomend machine-leermodel volgt de volgende reeks:
- Geef het systeem een reeks bekende gegevens. Dat wil zeggen, een set gegevens met een groot aantal mogelijke variabelen die zijn verbonden met een bekend positief of negatief resultaat. Dit wordt gebruikt om het systeem te trainen en het een startpunt te geven. Kortom, het begrijpt nu hoe factoren op basis van de gegevens uit het verleden moeten worden herkend en gewogen om een positief resultaat te produceren.
- Stel een beloning in voor succes. Nadat het systeem is geconditioneerd met de startgegevens, worden vervolgens nieuwe gegevens ingevoerd, maar zonder het bekende positieve of negatieve resultaat. Het systeem kent de relaties van een nieuwe entiteit niet of dat een e-mail spam is of niet. Wanneer het correct selecteert, krijgt het een beloning, maar duidelijk geen chocoladereep. Een voorbeeld zou zijn om het systeem een beloningswaarde te geven met als doel om het hoogst mogelijke aantal te bereiken. Telkens wanneer het juiste antwoord wordt geselecteerd, wordt deze score toegevoegd aan.
- Zet het los. Zodra de successtatistieken hoog genoeg zijn om bestaande systemen te overstijgen of een andere drempel te halen, kan het systeem voor het leren van machines worden geïntegreerd met het algoritme als geheel.
Dit model wordt onder toezicht leren genoemd en als mijn gok juist is, is dit het model dat wordt gebruikt in de meeste implementaties van het Google-algoritme.
Een ander model van machine learning is het Unsupervised Model. Om te putten uit het voorbeeld dat is gebruikt in een geweldige cursus over Coursera over machine learning, is dit het model dat wordt gebruikt om vergelijkbare verhalen in Google Nieuws te groeperen en men kan concluderen dat het in andere plaatsen wordt gebruikt, zoals de identificatie en groepering van afbeeldingen die dezelfde of vergelijkbare mensen in Google Afbeeldingen.
In dit model wordt het systeem niet verteld waar het naar op zoek is, maar wordt het simpelweg geïnstrueerd om entiteiten (een afbeelding, artikel, etc.) in groepen te groeperen op basis van vergelijkbare kenmerken (de entiteiten die ze bevatten, trefwoorden, relaties, auteurs, etc.)
Waarom doet dit er toe?
Inzicht in wat machine learning is, is van cruciaal belang als u wilt begrijpen waarom en hoe SERP's zijn ingedeeld en waarom pagina's op de juiste plaats staan.
Het is één ding om een algoritmische factor te begrijpen - wat belangrijk is om zeker te zijn - maar het begrijpen van het systeem waarin die factoren worden gewogen, is van even groot, zo niet groter belang.
Als ik bijvoorbeeld zou werken voor een bedrijf dat auto's verkoopt, zou ik specifieke aandacht besteden aan het ontbreken van bruikbare, relevante informatie in de SERP-resultaten voor de hierboven geïllustreerde vraag. Het resultaat is duidelijk geen succes. Ontdek welke inhoud een succes zou zijn en genereer deze.
Besteed aandacht aan de soorten inhoud waarvan Google denkt dat deze de intentie van een gebruiker (post, afbeelding, nieuws, video, winkelen, aanbevolen fragment, enz.) Kunnen vervullen en werken om deze te bieden.
Ik vind het leuk om te denken aan machine learning en de evolutie daarvan, gelijk aan het hebben van een Google-technicus achter elke zoeker, aanpassing van wat ze zien en hoe ze het zien voordat het naar hun apparaat wordt verzonden. Maar beter - die ingenieur is als de Borg verbonden met elke andere ingenieur die van globale regels leert.
Maar daar zullen we meer aandacht aan besteden in ons volgende stuk over de bedoeling van de gebruiker.
Beeldcredits
Uitgelichte afbeelding: Adobe Stock I Learn Robot: Adobe Stock Screenshot gemaakt door de auteur, juni 2018