En Innføring i Black Hat SEO og Andre Hatter

Av: Sverre Bech-Sjøthun, August 3, 2009

Denne posten gir deg en grunnleggende innføring i hva Black Hat SEO dreier seg om, hvilke teknikker som brukes og hva du bør passe deg for.

I mars 2007 ble jeg intervjuet av Lars Karelius Noer i NRK Forbrukerinspektørene i forbindelse med programmet om søkemotor-spam fra Bolia.com og Kilroy Travels. Etter programmet ble Bolia.com tildelt en kraftig ”penalty”. Det ble også stort oppstyr da Prioritet.no ble fjernet fra Google’s indeks 10 juli 2007.

Selv om det er positivt at Google rydder opp er den negative omtalen med på å ytterligere forsterke inntrykket av en sleip bransje som bare er ute etter penger. For å sitere diskusjonen som utspant seg på NRK’s sider etter FBI programmet:

SEO-bransjen i Norge er preget av løgn, bakvaskelser, drittslenging og en nerdete tilnærming til markedet.

Bortsett fra det faktum at slike firma beviselig finnes i Norge, er et av de største problemene rett og slett begrepsforvirring og mangel på kunnskap om hva søkemotoroptimalisering egentlig dreier seg om – både hos kunder og høyst sansynligvis hos enkelte leverandører også.

Et annet aspekt er kortsiktige økonomiske gevinster ved å velge de enkleste og rimeligste løsningene – enten det da gjelder selve leveransen eller mangel på intern kompetanse eller kapasitet til å implementere nødvendige forbedringer på et nettsted. Men som med det meste andre – du får stort sett det du betaler for.

Det er mange aspekter ved søkemotoroptimalisering, og man kan grovt dele disse inn i:

  • Siderelaterte – Faktorer på de individuelle sidene på et nettsted
  • Nettstedsrelaterte – Faktorer som omfatter seksjoner eller hele nettstedet
  • Eksternt – Kort og godt linker; antall linker, hva disse sier, og hvor disse kommer fra

Det er også, veldig grovt sett, to metoder som benyttes: Black Hat og White Hat. Dette er en lånt terminologi fra hackerverdenen hvor White Hat er betegnelsen for teknikker som er i tråd med søkemotorenes egne anbefalinger, mens Black Hat ofte benytter seg av smutthull i søkemotorenes algoritmer, og dermed bryter med deres anbefalinger.

Black Hat betyr med andre ord å benytte seg av til tider svært avanserte, aggressive metoder som søkemotorene ikke alltid setter like stor pris på, og som kan resultere i at du i verste fall får ditt nettsted bannlyst fra søkemotorene. (Det skal alikevel presiseres at Black Hat i sitt grunnprinsipp overhode ikke er lovstridig eller kan straffeforfølges.) Man opererer også med en tredje definisjon; Gray Hat, som er en mellomting av de to – aggressiv optimalisering som er i gråsonen av søkemotorenes retningslinjer.

Selv vil jeg innføre en fjerde definisjon: Lame Hat SEO.

Årsaken til dette er at på sitt beste kan Black Hat være blant de mest avanserte, tekniske formene som overhode kan implementeres i en strategisk sammenheng. Til gjengjeld vil det være ren og skjær idioti å innføre lett gjennomskuelige taktikker på et hoved-domene. Ralph Tegtmeier har skrevet en aldeles ypperlig post omkring dette og mye mer på Search Cowboys’ Some misconceptions regarding Black Hat SEO.

Hvilke metoder bør du passe deg for?

Det er de taktiske grepene som blir gjort som vil bestemme om du er på trygg is, eller om du er i faresonen for å bli kastet ut av søkemotorene.

Listen under beskriver de hyppigst brukte taktikkene i Norge som du bør være oppmerksom på. Felles for samtlige er at de isolert sett er svært raske og enkle å implementere, og er dermed med på å drive kostnadene ned både for kunden og leverandør. Enkelte taktikker, som feks autogenerering av innhold er også ekstremt skalerbart, som dermed gjør dette til noe som kan virke ganske så interessant ved første øyekast.

Landingssider

Landingssider i seg selv vil ikke få deg bannlyst i Google – det er implementasjonen av dem som vil kunne gjøre dette.

Problemet med mange landingssider er at de blir implementert på en slik måte at de bare blir en “dings” som henger og dingler i løse luften uten noen som helst form for tilhørighet med resten av nettstedet; Man foretar en stikkordanalyse (som for øvrig er aldeles uproblematisk), finner de stikkordene med mest søk på, og det skrives en side med to til tre avsnitt per stikkord. Disse linkes så opp fra hver side på nettstedet, og ofte via en skjult eller delvis skjult lenke. Mer detaljer om landingssider som strategi

Autogenerering av innhold

I enkelte tilfeller, for å spare tid og ressurser, brukes programmer for å autogenerere dette innholdet. Dette er tilfellet med Kilroy Travels hvor de har autogenerert tusenvis av sider – man bruker enkelt og greit et program i stedet for en skikkelig tekstforfatter.

  1. Laget en standard tekstblokk på ett avsnitt
  2. Satt opp by- og landsnavn som en variabel
  3. Automatisk byttet ut by- og landsnavn

Resultatet er at de har generert tusenvis av landingssider basert på nøyaktig samme tekstuelle innhold i løpet av sekunder – alt gjøres automatisk og sparer dem dermed for enorme beløp da de ikke trenger en tekstforfatter til å skrive innhold til de 87 000 sidene de hadde indeksert i 2007. De har riktignok moderert seg noe siden den gang, men de benytter seg fremdeles av utstragt bruk av autogenerering av innhold av det simple slaget.

Men autogenerering kan også være særdeles avansert, og da snakker jeg ikke om autogenerering basert på Markov’s ulikhet, men feks TheContentSolution, RSSGM osv og ikke minst Ralph Tegtmeier’s nyeste produkt – Customized Content Creation (som tidligere hadde kodenavn fantomas textMachine). I sistnevnte tilfelle vil det være bortimot umulig å kunne identifisere at dette faktisk dreier seg om autogenerering av innhold – selv ved en manuell inspeksjon av den aktuelle siden.

Cloaking & IP Delivery

Cloaking er et samlebegrep for å levere forskjellig innhold basert på hvem den besøkende er. Den simpleste, og sånn sett også den mest amatørmessige varianten baserer seg på det som heter User Agent og tar utgangspunkt i at både søkemotorer og menneskelige besøkende sender ut en identifikasjon for hvem de er når de besøker et nettsted, feks googlebot (Google sin søkerobot) eller Mozilla som i mitt tilfelle.

IP Delivery betyr kort og godt å levere forskjellig innhold alt etter hvilken IP adresse den besøkende har, men dette trenger nødvendigvis ikke å defineres som Black Hat – det finnes aldeles legitime grunner får å levere skreddersydd innhold alt etter hvilken IP adresse man har.

Om du er en landsdekkende møbelkjede ville det for eksempel være hensiksmessig å kunne identifisere hvor i landet den besøkende kommer fra slik at du kan vise relevant lagerstatus for den enkelte butikk i området, korrekt kontaktinformasjon osv. Dette kalles Geo Targeting, og er faktisk ikke verre enn hva Google selv gjør når de viser “Resultater for lokale virksomheter for møbler i nærheten av Stavanger” (ettersom jeg bor i Stavanger).

Det Google og de andre søkemotorene derimot ikke setter pris på er når du benytter en liste over IP adresser tilhørende søkemotorene selv og leverer annet innhold til disse enn dine vanlige besøkende. Dette gjør at du kan levere super-optimalisert innhold til søkemotorene og super-selgende innhold til dine menneskelige besøkene.

Omdirigeringer & Parasite Hosting

Det er heller ikke uvanlig at man med autogenererte landingssider benytter en omdirigering slik at du automatisk blir sendt videre til en ny landingsside da det tekstuelle innholdet på disse autogenererte sidene er så labert at det overhode ikke ”egner seg” til å bli vist til annet enn søkemotorer.

Dette var tidligere en svært yndet teknikk blant søkemotorspammere, men mange av teknikkene brukt her var svært simple, og ble ofte også benyttet i kombinasjon med Parasite Hosting.

Ettersom søkemotorene, og spesielt Google, legger så stor vekt på autoritet på et nettsted, ble det for noen år siden populært å prøve å få tilgang til feks amerikanske universitetsdomener da disse oppfattes som særdeles autoritære.

Ved hjelp av autogenerering av innhold klarte spammeren å rangere svært raskt og svært bra på særdeles konkurranseutsatte søkeord. Den besøkende ble så automatisk videresendt til siden hvor de kunne kjøpe feks “piller” eller spille poker.

De mest populære måtene å omdirigere på i denne sammenheng har vært via JavaScript, 301 og 302 omdirigeringer – og spesielt på grunn av måten Yahoo behandlet omdirigeringer på tidligere har dette vært en yndet metode, selv uten IP delivery.

Slik var det ikke tidligere, og dette betydde i praksis at om jeg satte opp en spam-side med autogenerert innhold og 302 omdirigering ville jeg få alt innholdet på Domene A (mitt spam-domene) indeksert, mens all trafikken ble videresendt til Domene B (mitt hoved-domene). Om Domene A ble bannlyst gjorde det ingenting for jeg ville fremdeles ha mitt hoveddomene i god behold – og jeg ville høyst sansynligvis ha 1000 andre autogenererte blogger satt opp på samme måten.

Skjulte lenker, tekst og CSS spam

En annen populær måte å unngå at vanlige besøkende ser denne ”søppelteksten” er rett og slett å skjule den. Den mest elementære måten å gjøre dette på er eksempelvis hvit tekst på hvit bakgrunn. Mer avanserte teknikker kan implementeres via Cascading Style Sheets. CSS er helt vanlig å bruke på nettsted, men kan brukes til å spamme søkemotorene også.

Normalt brukes CSS til å styre utseende og plassering av elementer på et nettsted, og det er mulig å plassere teksten utenfor skjermbildet slik at det blir usynlig, eventuelt plassere et annet element over, for eksempel et bilde, slik at det skjuler teksten.

Det er også svært ”normalt” å skjule lenkene som går til landingssidene slik at den eneste måten disse kan finnes på er via søkemotorene – det er med andre ord ingen naturlig del av resten av nettstedet.

Lenkefarmer

For at et nettsted skal kunne rangere bra må det ha linker fra andre nettsted inn til seg. Problemet er imidlertid at de færreste vil finne på å linke til mange typer landingssider eller spam-sider da det tekstuelle innholdet er av såpass dårlig kvalitet.

Løsningen blir da å opprette kunstige nettverk av forskjellige nettsted som krysslinker til hverandre i håp om at søkemotorene skal plukke dette opp.Det er ikke uvanlig at leverandøren av søkemotoroptimalisering tar seg til rette og plasserer linker til sine kunder på hvert nettsted slik at alle linker til alle. Ettersom både linker og tekst ofte er skjult vil kunden og de besøkende som oftest ikke en gang merke dette.

Dette er som sagt de hyppigst brukte taktikkene i Norge, men Google har selv lagt ut en del retningslinjer for hva som anbefales, og alle som vurderer å kjøpe denne type tjenester bør i aller høyeste grad gjøre seg kjent med dette innholdet.

Kortsiktig gevinst eller langsiktig strategi og skalerbarhet

Som nevnt tidligere i denne artikkelen kan ikke alt skyldes på leverandøren selv om det er denne som til syvende og sist foretar leveransen.

Dessverre er det mange bedrifter som tenker kortsiktig gevinst i stedet for langsiktig og strategisk – det er noe jeg selv har erfart også; enkelte bedrifter har rett og slett ikke ”tid” til å gjøre de nødvendige endringene som må til for at nettstedet skal bli søkemotorvennlig eller har kapasitet til å utvikle nødvendig innhold.

Tiltak som gir umiddelbare resultater, slik som PPC og bannerannonser, blir prioritert fremfor en solid strukturanalyse, som helt åpenbart vil kunne gi atskillig større trafikkvolum, høyere konverteringsrater og er betraktelig mer skalerbart enn alternativene.

Om valget står mellom en leverandør som ”fikser alt selv” eller et dokument som beskriver i detalj hvordan utviklingsavdelingen bør forbedre nettstedet teknisk er det ofte veldig behagelig å velge førstnevnte.

I fare for å bli litt navlebeskuende, men for å illustrere et eksempel om skalerbarhet: En typisk landingssidestrategi vil gi X antall sider som dekker X antall stikkord.

I en konkret sak i 2007 ble en av mine kunder tilbudt 120 landingssider til 120 000,-. Mitt tilbud var en strukturanalyse på 80 000,- som ville gjøre samtlige vitale sider på nettstedet tilgjengelig i søkemotorene.

For omfattende nettsted, og i dette tilfelle over 300 000 sider, er det helt åpenbart at en landingssidestrategi vil være både en dyrere og en atskillig mindre skalerbar og hensiktsmessig løsning. Og da ser vi selvsagt bort i fra det faktum at den aktuelle løsningen vil kunne få nettstedet bannlyst.

Selv om taktikkene som benyttes fra leverandør til leverandør varierer noe bør målet være å forbedre et nettsted slik at det blir lettere å finne frem både for søkemotorer og mennesker og ikke minst forbedre de kommersielle faktorer som går på konverteringsrater og så videre.

Søkemotoroptimalisering er i så måte svært tett relatert til Brukervennlighet (Web Usability), men allikevel helt forskjellig. Om ting blir gjort rett, og med de besøkende i fokus, er det ingen tvil om at søkemotoroptimalisering vil ha en særdeles positiv innvirkning på et nettsted.


5 kommentarer

Av kalle , August 5, 2009



Av skogtrollet , August 5, 2009



Av Geir Ellefsen , August 6, 2009



Av Kontaktannonser , November 24, 2009





Legg inn en kommentar

Din email adresse vil aldri bli publisert eller misbrukt - Bortsett fra om du legger igjen kommentarspam.
Da blir vi sinte

Ndvendige felt er merket med *

*

*





Du burde følge oss på

RSS Feed Twitter

Mailoppdatering

(dette med spam gidder vi virkelig ikke, så du kan ta det helt med ro)