Semalt råd om, hvordan man bruger dyb læring til at optimere dit automatiserede titelmærke



En hurtig måde at tage føringen i din SEO-rangering er at medtage et toprangeret søgeord i deres titelmærke. Og hvis du tænker over det et øjeblik, vil du indse, at det virkelig er en smart løsning. Hvis du har en side, der allerede rangerer efter et søgeord, uden at det søgeord er til stede i titlen, kan du forestille dig betydningen af ​​at have nøgleordet i titlen. Du vil naturligvis blive indekseret oftere for dette søgeord; derfor rangerer du bedre.

Hvis vi nu tog dette nøgleord og tilføjede det til din metabeskrivelse, vises de fremhævet i søgeresultaterne, hvilket betyder, at flere brugere af søgemaskiner sandsynligvis vil klikke. Dette vil naturligvis gavne hjemmesiden.

Forestil dig, at Semalt arbejdede på et websted med hundreder, tusinder eller millioner af sider. Hvis vi skulle gøre dette manuelt, vil det være tidskrævende og hurtigt blive ret dyrt. Så hvordan kan vi så analysere den side og optimere hver titel og metabeskrivelse? Løsningen er at bruge en maskine. Ved at lære en maskine at finde de nøgleord, der er bedst placeret på hver side, sparer vi tid og omkostninger. Brug af en maskine kan ende med at præstere bedre og hurtigere end et dataindtastningsteam.

Lad os genindføre Ubers Ludwig og Googles T5

Ved at kombinere Ubers Ludwig og Googles T5 har du et ret kraftigt system.

Sammenfattende er Ludwig et open-source auto ML-værktøj, der giver brugerne mulighed for at træne avancerede modeller uden at skulle skrive nogen kode.

Google T5 er derimod en overlegen version af SERT-modeller. T5 kan opsummere, oversætte, besvare spørgsmål og klassificere søgeforespørgsler samt mange andre funktioner. I en nøddeskal er det en meget kraftig model.

Der er dog ingen indikationer på, at T5 er uddannet til optimering af titelmærker. Men måske kan vi gøre det, og sådan er det:
  • Vi får et uddannet datasæt med eksempler lavet af:
    • Originale titel tags uden vores mål søgeord
    • Vores mål nøgleord
    • Optimerede titelmærker med målnøgleordene
  • En T5 tunning kode og tutorials til brug
  • Har et sæt titler, der ikke er optimeret, så vi kan teste vores model
Vi starter med et datasæt, der allerede er oprettet, og vi vil give en guide til, hvordan vi oprettede datasættet.

Forfatterne af T5 var generøse nok til at give os en detaljeret Google Colab-notesbog, som vi bruger til at finjustere T5. Efter at have brugt tid på at studere det var vi i stand til at besvare vilkårlige trivia-spørgsmål. Colab-notesbogen har også retningslinjer for, hvordan man finjusterer T5 til nye opgaver. Men når du ser på kodeændringerne og den nødvendige dataforberedelse, finder du ud af, at det involverer meget arbejde, og at vores ideer kan være perfekte.

Men hvad nu hvis det kunne være enklere? Takket være Uber Ludwig version 3, som blev udgivet for et par måneder siden, har vi en kombination af nogle meget nyttige funktioner. 3.0-versionen af ​​Ludwig leveres med:
  • En hyperparameteroptimeringsmekanisme, der får ekstra ydelse fra modeller.
  • Kodefri integration med Hugging Face's Transformers-lager. Dette giver brugerne adgang til opdaterede modeller som GPT-2, T5, DistilBERT og Electra til naturlige sprogbehandlingsopgaver. Nogle af sådanne opgaver inkluderer klassificeringssentimentanalyse, navngivet enhedsgenkendelse, besvarelse af spørgsmål og mere.
  • Det er nyere, hurtigere, modulært og har en mere udvidelig backend, der er afhængig af TensorFlow 2.
  • Det giver support til mange nye dataformater som Apache Parquet, TSV og JSON.
  • Det har k-fold krydsvalideringsaktivering ud af kassen.
  • Når den er integreret med vægte og forspændinger, kan den bruges til styring og overvågning af flere træningsprocesser.
  • Den har en ny vektordatatype, der understøtter støjende etiketter. Det er nyttigt, hvis vi har at gøre med svage tilsyn.
Der er flere nye funktioner, men vi finder integrationen til Hugging Face's Transformers som en af ​​de mest nyttige funktioner. Knusende ansigtsrørledninger kan bruges til at forbedre SEO-indsatsen på titler og generering af metabeskyttelse væsentligt.

Brug af pipeline er fantastisk til at køre forudsigelser på modeller, der allerede er trænet og allerede er tilgængelige i modellen bub. Der er dog i øjeblikket ingen modeller, der kan gøre, hvad vi har brug for, så vi kombinerer Ludwig og Pipeline for at skabe en formidabel automatisk titel og metabeskrivelse for hver side på et websted.

Hvordan bruger vi Ludwig til at finjustere T5?

Dette er et vigtigt spørgsmål, da vi prøver at vise vores kunder nøjagtigt, hvad der foregår i baggrunden af ​​deres hjemmeside. Rundt her er der en kliché, der siger "at bruge Ludwig til træning af T5 er så simpelt, at vi bør overveje at gøre det ulovligt." Sandheden er, at vi ville have opkrævet vores kunder meget højere, hvis vi skulle ansætte en AI-ingeniør til at gøre det tilsvarende.

Her finder du ud af, hvordan vi finjusterer T5.
  • Trin 1: Åbn en ny Google Colab-notesbog. Derefter ændrer vi Runtime til at bruge GPU.
  • Vi downloader Hootsuite-datasættet, der allerede er sammensat.
  • Vi installerer derefter Ludwig.
  • Efter installationen indlæser vi træningsdatasættet i en pandadataramme og inspicerer det for at se, hvordan det ser ud.
  • Derefter står vi over for den mest betydningsfulde forhindring, som er at skabe den korrekte konfigurationsfil.
Opbygning af det perfekte system kræver dokumentation til T5 og konstant prøving og fejl, indtil vi får det rigtigt. (det ville gå langt, hvis du kan finde den Python-kode, der skal produceres her.)

Sørg for at gennemse ordbøgerne til input og output og sørg for, at dine indstillinger er korrekt afhentet. Hvis det gøres rigtigt, begynder Ludwig at bruge 't5-small' som den kørende model. For større T5-modeller er det lettere at skifte i modelnavet og muligvis forbedre dets generation.

Efter at have trænet en model i flere timer begynder vi at få imponerende valideringsnøjagtighed.

Det er vigtigt, at du bemærker, at Ludwig automatisk vælger andre vigtige målinger til generering af tekst, hovedsagelig forvirring og redigeringsafstand. Disse er begge lave tal, der passer rigtigt ind for os.

Hvordan vi bruger vores uddannede modeller til at optimere titler

At sætte vores modeller på prøve er den rigtige interessante del.

Først downloader vi et testdatasæt med uoptimerede Hootsuite-titler, der ikke er set af modellen under træning. Du vil være i stand til at forhåndsvise datasættet ved hjælp af denne kommando:

!hoved

Hootsuite_titles_to_optimize.csv

Det er meget imponerende, at Ludwig og T5 kan gøre så meget med ethvert lille træningssæt, og de kræver ingen avanceret Hyperparameter-tuning. Den rigtige test kommer ned på, hvordan den interagerer med vores søgeord. Hvor godt blander det sig?

Opbygning af en titeloptimeringsapp med Streamlight

Indholdsforfattere finder denne applikation mest nyttig. Ville det ikke være fantastisk at have en brugervenlig app, der ikke kræver meget teknisk viden? Nå, det er netop, hvad Streamlight er her til.

Dens installation såvel som brug er ret ligetil. Du kan installere det ved hjælp af:

! pip install strømline

Vi har oprettet en app, der udnytter denne model. Når det er nødvendigt, kan vi køre det fra det samme sted, hvor vi træner en model, eller vi kan downloade en allerede trænet model, hvor vi planlægger at køre scriptet. Vi har også udarbejdet en CSV-fil med titler og nøgleord, som vi håber at optimere.

Nu lancerer vi appen. For at køre modellen er vi nødt til at give stien til CSV-filen, som har de titler og nøgleord, vi håber at optimere. CSV-kolonnenavnene skal matche navnene under træning af Ludwig. Hvis modellen ikke optimerer alle titlerne, skal du ikke gå i panik; at få et anstændigt nummer rigtigt er også et godt skridt fremad.

Som eksperter i Python bliver vi meget begejstrede, når vi arbejder med dette, da det normalt får vores blod til at pumpe.

Sådan produceres et brugerdefineret datasæt, der skal trænes

Ved hjælp af Hootsuite-titler kan vi træne modeller, der fungerer godt for vores kunder, men som standard for deres konkurrenter. Derfor sikrer vi, at vi producerer vores eget datasæt, og her gør vi det.
  • Vi udnytter vores egne data fra Google Search Console eller Bing Webmaster Tools.
  • Som et alternativ kan vi også hente vores klients konkurrencedata fra SEMrush, Moz, Ahrefs osv.
  • Vi skriver derefter et script til titelmærker og splitter derefter titler, der har og ikke har målnøgleordet.
  • Vi tager de titler, der er optimeret ved hjælp af nøgleord, og erstatter nøgleordene med synonymer, eller vi bruger andre metoder, så titlen er "deoptimeret."

Konklusion

Semalt er her for at hjælpe dig med at optimere dine titeltags såvel som metabeskrivelser automatisk. Ved at gøre det kan du forblive foran på SERP. Analyse af et websted er aldrig en nem opgave. At det er derfor, at træne en maskine til at hjælpe os med at spare ikke kun omkostninger, men det sparer også tid.

Hos Semalt er der professionelle, der vil oprette dit datasæt, Ludwig og T5, så du altid kan vinde.

Ring til os i dag.

mass gmail