– Jeg har virkelig brug for gode idéer til, hvordan jeg giver en link-spamer en ordentlig røvfuld – eller til bare at undgå at blive link-spamet på min blog. Måske én herinde ved hvordan??

Lige pt. bliver min blog dagligt spamet af ham her med links til en tumblr blog:

– jeremy scott adidas shoes

– adidas js wings

– jeremy scott wing shoes

– jeremy scott online

– jeremy scott panda

På min egen blog har jeg ikke nogen sikkerhedsforanstaltning, når du vil kommentere på et indlæg. Og jo, det jo nok lidt dumt! Jeg tænker, det er første skridt?

MEN derfor kunne jeg nu godt tænke mig at slå igen… Any ideas?? ;o) 

 

Håber, I kan hjælpe! Tak… :o)

Hi, I’m Line Hornslet Falcke

14 Comments

  1. Hvis det er noget, som sker automatisk, kan jeg anbefale to ting, som er meget effektivt mod bots/crawlere:

    1) installere geo-capchta plugin (forudsætter du bruger WordPress), hvor du kan definere, hvilke lande der skal gennem capchta før de må smide en kommentar.

    2) OBS! Dette kan kræve lidt programmering: Lave en honeypot til crawlere, der gennemsøger blogs for at autoposte linkspam. Læs mere om det ved at søge efter “project honeypot”. Har bygget en selv, hvor jeg i min robots.txt fil har sagt at “/sideX” ikke må besøges. Dette overholder Google og andre lødige crawlere. Hvis en crawler alligevel besøger siden, så sker der noget php-magi, hvor ip-adressen på den, der besøger siden gemmes i en liste over adresser, som skal bortvises fra min hjemmeside for altid. På samtlige sider linker jeg øverst på siden til “/sideX” (linket er dog skjult for mennesker via css). Disse links ind til siden er en fristelse (honeypot) og de crawlere, som ikke overholder robots.txt og falder for fristelsen, bliver bortvist for stedse.

  2. Esben Rasmussen, 1000 tak for dit input! 

    Jeg bruger ikke selv WordPress, men tænker,  dit bud nr. 2 er noget min udvikler bør se på – mit site med dertilhørende blog er ikke en open source løsning. Jeg takker og bukker! :o)

  3. Go’ morgne D’ herre! 

    Som opfølgning vil jeg bare lige sige, at det input Esben Rasmussen kommer med her i kommentarerne virker!! Så 1000 tak for det. Jeg bliver ikke længere spamet af robotter og irriterende mennesker fra Kina ;p

    Go’ dag derude…  

  4. Godt at høre at det virker Line Hornslet Falcke. Jeg kan tilføje, at jeg i min honeypot har indbygget, at der automatisk udsendes en mail til mig, når en crawler er blevet blacklistet. Mailen indeholder ip-adressen og den angivne useragent – f.eks. 

    Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0).

    Jeg har så en mappe i mit mailprogram, hvor info om disse blacklistede bots opbevares. På den måde kan jeg løbende let holde øje med, at der ikke er en vigtig crawler, som er blevet blacklistet – (godt nok fordi den ikke kan overholde den gængse standard).

    Nogle få bots spoofer userAgent info, så det ser ud som om det er Googles crawler. Her er det vigtigt at dobbelttjekke med ip-adressen. Hvis userAgent siger at det er Googles crawler, men ip-adressen ikke tilhører Google, så er det falsk – og botten skal blacklistes.

    Og så har jeg selvfølgelig en whitelist, hvor jeg løbende kan tilføje ip-adresser, som er undtaget blacklisting (mig selv inklusiv) – selvom de besøger “/sideX”.

  5. Haha, ok. Hurtig ordbog:

    User Agent = en form for hurtig hilsen fra din browser, hvor den fortæller den side, den besøger, hvem den er.

    Når du besøger en hjemmeside, sender din browser en kort beskrivelse af sig selv og den computer, den er installeret på. Du kan tjekke din egen user agent her: http://whatsmyuseragent.com/

    Bots og crawlers har oftest også en user agent.

    At spoofe en user agent = at ændre den beskrivelse ens browser giver, når den besøger en hjemmeside til noget andet, end det som er virkeligheden.

    Håber det hjælper lidt 😉

Leave a Reply to Torben Linnemann Nielsen Cancel reply

Your email address will not be published. Required fields are marked *