Semalt-advies over hoe u Deep Learning kunt gebruiken om uw geautomatiseerde titeltag te optimaliseren



Een snelle manier om het voortouw te nemen in uw SEO-ranking, is door een topzoekwoord in hun title-tag op te nemen. En als je er even over nadenkt, besef je dat het inderdaad een slimme oplossing is. Als u een pagina heeft die al op een trefwoord staat zonder dat dat trefwoord in de titel voorkomt, stelt u zich dan eens voor hoe belangrijk het is om het trefwoord in de titel te hebben. U wordt natuurlijk vaker geïndexeerd voor dat trefwoord; vandaar dat je beter scoort.

Als we dat trefwoord hebben genomen en aan uw metabeschrijving hebben toegevoegd, worden ze gemarkeerd in de zoekresultaten, wat betekent dat meer gebruikers van zoekmachines waarschijnlijk zullen klikken. Dit komt natuurlijk de website ten goede.

Stel je voor dat Semalt aan een website werkte met honderden, duizenden of miljoenen pagina's. Als we dit handmatig zouden moeten doen, zal het tijdrovend zijn en snel behoorlijk duur worden. Dus hoe kunnen we de pagina dan analyseren en elke titel en metabeschrijving optimaliseren? De oplossing is om een ​​machine te gebruiken. Door een machine te leren de hoogst gewaardeerde zoekwoorden op elke pagina te vinden, besparen we tijd en kosten. Het gebruik van een machine kan uiteindelijk beter en sneller presteren dan een team voor gegevensinvoer.

Laten we Uber's Ludwig en Google's T5 opnieuw introduceren

Door Uber's Ludwig en Google's T5 te combineren, heb je een behoorlijk krachtig systeem.

Samenvattend is Ludwig een open-source auto ML-tool waarmee gebruikers geavanceerde modellen kunnen trainen zonder code te hoeven schrijven.

Google T5, aan de andere kant, is een superieure versie van modellen in SERT-stijl. De T5 kan samenvatten, vertalen, vragen beantwoorden en zoekopdrachten classificeren, evenals vele andere functies. Kortom, het is een zeer krachtig model.

Er zijn echter geen aanwijzingen dat T5 is getraind voor optimalisatie van titeltags. Maar misschien kunnen we dat doen, en hier is hoe:
  • We krijgen een getrainde dataset met voorbeelden gemaakt van:
    • Originele title-tags zonder ons doelzoekwoord
    • Onze doelzoekwoord (en)
    • Geoptimaliseerde title-tags met de doelzoekwoorden
  • Een T5-tunning-code en tutorials om te gebruiken
  • Heb een reeks titels die niet zijn geoptimaliseerd, zodat we ons model kunnen testen
We beginnen met een dataset die al is gemaakt en we zullen een handleiding geven over hoe we de dataset hebben gemaakt.

De auteurs van T5 waren genereus genoeg om ons een gedetailleerde Google Colab-notebook te bezorgen, die we gebruiken om T5 te verfijnen. Nadat we het hadden bestudeerd, waren we in staat om willekeurige trivia-vragen te beantwoorden. De Colab-notebook bevat ook richtlijnen voor het afstemmen van de T5 voor nieuwe taken. Als u echter kijkt naar de codewijzigingen en de vereiste gegevensvoorbereiding, komt u erachter dat het veel werk met zich meebrengt en dat onze ideeën perfect kunnen zijn.

Maar wat als het eenvoudiger zou kunnen zijn? Dankzij Uber Ludwig versie 3, die een paar maanden geleden werd uitgebracht, hebben we een combinatie van een aantal zeer handige functies. De 3.0-versie van Ludwig wordt geleverd met:
  • Een hyperparameteroptimalisatiemechanisme dat extra prestaties uit modellen haalt.
  • Codevrije integratie met de Transformers-repository van Hugging Face. Dit geeft gebruikers toegang tot bijgewerkte modellen zoals GPT-2, T5, DistilBERT en Electra voor natuurlijke taalverwerkingstaken. Enkele van dergelijke taken zijn onder meer classificatie-sentimentanalyse, benoemde entiteitsherkenning, vragen beantwoorden en meer.
  • Het is nieuwer, sneller, modulair en heeft een meer uitbreidbare backend die afhankelijk is van TensorFlow 2.
  • Het biedt ondersteuning voor veel nieuwe gegevensformaten zoals Apache Parquet, TSV en JSON.
  • Het heeft uit de doos k-fold kruisvalidatie mogelijk gemaakt.
  • Indien geïntegreerd met Gewichten en Biases, kan het worden gebruikt voor het beheren en bewaken van meerdere model trainingsprocessen.
  • Het heeft een nieuw vectorgegevenstype dat luidruchtige labels ondersteunt. Dat is handig als we te maken hebben met zwak toezicht.
Er zijn verschillende nieuwe features, maar we vinden de integratie met de Hugging Face's Transformers een van de handigste features. Hugging face pipelines kunnen worden gebruikt om de SEO-inspanningen voor titels en het genereren van metabeschrijvingen aanzienlijk te verbeteren.

Het gebruik van een pijplijn is geweldig om voorspellingen uit te voeren op modellen die al zijn getraind en al beschikbaar zijn in de modelbub. Er zijn momenteel echter geen modellen die kunnen doen wat we nodig hebben, dus combineren we Ludwig en Pipeline om een ​​formidabele automatische titel en metabeschrijving voor elke pagina op een website te creëren.

Hoe gebruiken we Ludwig om T5 te fine-tunen?

Dit is een belangrijke vraag, aangezien we onze klanten precies proberen te laten zien wat er op de achtergrond van hun website gebeurt. Hier in de buurt is er een cliché dat luidt: "Ludwig gebruiken voor het trainen van T5 is zo eenvoudig dat we zouden moeten overwegen het illegaal te maken." De waarheid is dat we onze klanten veel hoger zouden hebben aangerekend als we een AI-ingenieur hadden moeten inhuren om het equivalent te doen.

Hier leest u hoe we de T5 finetunen.
  • Stap 1: open een nieuw Google Colab-notitieblok. Daarna veranderen we de Runtime om GPU te gebruiken.
  • We downloaden de Hootsuite-dataset die al is samengesteld.
  • Vervolgens installeren we Ludwig.
  • Na de installatie laden we de trainingsdataset in een panda's dataframe en inspecteren het om te zien hoe het eruit ziet.
  • Dan staan ​​we voor de belangrijkste hindernis, namelijk het maken van het juiste configuratiebestand.
Het bouwen van het perfecte systeem vereist de documentatie voor T5 en constant vallen en opstaan ​​totdat we het goed hebben. (het zou een lange weg gaan als je de Python-code kunt vinden om hier te produceren.)

Bekijk de woordenboeken voor invoer- en uitvoerfuncties en zorg ervoor dat uw instellingen correct worden opgehaald. Als het goed wordt gedaan, zal Ludwig 't5-small' gaan gebruiken als het lopende model. Voor grotere T5-modellen is het gemakkelijker om de modelhub te veranderen en mogelijk de generatie ervan te verbeteren.

Nadat we een model enkele uren hebben getraind, krijgen we een indrukwekkende validatienauwkeurigheid.

Het is belangrijk dat u opmerkt dat Ludwig automatisch andere cruciale tekstgeneratiemetingen selecteert, voornamelijk verwarring en bewerkingsafstand. Dit zijn allebei lage cijfers die goed bij ons passen.

Hoe we onze getrainde modellen gebruiken om titels te optimaliseren

Onze modellen testen is het echt interessante deel.

Eerst downloaden we een testdataset met niet-geoptimaliseerde Hootsuite-titels die tijdens de training niet door het model werden gezien. U kunt een voorbeeld van de dataset bekijken met deze opdracht:

!hoofd

Hootsuite_titles_to_optimize.csv

Het is erg indrukwekkend dat Ludwig en T5 zoveel kunnen doen met elke kleine trainingsset, en ze vereisen geen geavanceerde hyperparameter-afstemming. De juiste test komt neer op hoe het samenwerkt met onze doelzoekwoorden. Hoe goed mengt het?

Een app voor het optimaliseren van titeltags bouwen met Streamlight

Schrijvers van inhoud vinden deze applicatie het nuttigst. Zou het niet geweldig zijn om een ​​eenvoudig te gebruiken app te hebben die niet veel technische kennis vereist? Nou, dat is precies waarvoor Streamlight hier is.

Zowel de installatie als het gebruik is vrij eenvoudig. U kunt het installeren met:

! pip install stroomlijnen

We hebben een app gemaakt die gebruikmaakt van dit model. Indien nodig kunnen we het uitvoeren vanaf dezelfde plek waar we een model trainen, of we kunnen een reeds getraind model downloaden naar waar we van plan zijn het script uit te voeren. We hebben ook een CSV-bestand gemaakt met de titels en trefwoorden die we hopen te optimaliseren.

Nu starten we de app. Om het model uit te voeren, moeten we het pad naar het CSV-bestand opgeven, dat de titels en trefwoorden bevat die we hopen te optimaliseren. De CSV-kolomnamen moeten overeenkomen met de namen tijdens het trainen van Ludwig. Als het model niet alle titels optimaliseert, hoeft u niet in paniek te raken; een goed nummer goed krijgen is ook een grote stap voorwaarts.

Als experts in Python worden we erg opgewonden als we hiermee werken, omdat het ons bloed meestal laat pompen.

Hoe u een aangepaste dataset maakt om te trainen

Met behulp van Hootsuite-titels kunnen we modellen trainen die goed zouden werken voor onze klanten, maar die mogelijk standaard zijn voor hun concurrenten. Daarom zorgen we ervoor dat we onze eigen dataset produceren, en hier is hoe we dat doen.
  • We maken gebruik van onze eigen gegevens van Google Search Console of Bing Webmaster Tools.
  • Als alternatief kunnen we ook de concurrentiegegevens van onze klant ophalen uit SEMrush, Moz, Ahrefs, enz.
  • Vervolgens schrijven we een script voor title-tags en splitsen we titels die wel en niet het doelzoekwoord hebben.
  • We nemen de titels die zijn geoptimaliseerd met behulp van trefwoorden en vervangen de trefwoorden door synoniemen, of we gebruiken andere methoden zodat de titel "niet geoptimaliseerd" wordt.

Conclusie

Semalt is hier om u te helpen uw title-tags en metabeschrijvingen automatisch te optimaliseren. Door dit te doen, kunt u voorop blijven lopen op SERP. Analyse van een website is nooit een gemakkelijke taak. Daarom bespaart het trainen van een machine om ons hierbij te helpen niet alleen kosten, maar ook tijd.

Bij Semalt zijn er professionals die uw dataset, Ludwig en T5 zullen opzetten, zodat u altijd kunt blijven winnen.

Bel ons vandaag nog.

mass gmail