De outtröttliga spam-robotarna

Igår kväll kollade jag genom min inkommande trafik till sidan. Såg då att någon stackare klickat sig in till vår hemsida från Windows Live på ett snuskigt engelskt uttryck. Denne besökare måste ha blivit ganska så besviken att hamna här för det var nog inte det han ville.

Hur som helst blev jag nyfiken på hur sökmotorn från Microsoft kunde hitta denna term på vår hemsida. Vi skriver ju inte om porr här och har absolut aldrig använt den termen som det handlade om. Jag sökte alltså på den i W-Live men kunde aldrig se vår hemsida på de första 30 sidorna i resultaten. Så detta förblir ett mysterium ett tag till.

Medans jag sökte på den snuskiga termen så hittade jag dock något annat intressant i resultaten. En url till en sub domän på det välkända företaget Eastpoint Media. Förundrad över vad de kunde finnas för porrelaterat på deras domän besökte jag adressen och hittade en gästbok helt överfull med spam.

Skickade vidare infon till Nikke eftersom han brukar ha intressanta tankar om SEO-företag. Han skrev sedan ett inlägg om det där han reflekterar över vådan av kommentarspam.

Att spam tar över en sida på det här sättet är väldigt vanligt, speciellt på sidor som använder lite äldre teknik. Sidan hos Eastpoint som är så spamfylld ligger antagligen kvar som en gammal rest från tidigare utveckling. Den har nog glömts bort och legat där och samlat spam ett bra tag.

Såna sidor är väldigt vanliga och i sökresultaten som jag just kollade hittade jag många fler, tex en på Unka.se.

Sen måste jag erkänna att jag själv var ansvarig för en liknande gästbok som låg hos en kund och samlade spam till bara för någon månad sen. Nu är den dock uppgraderad till ASP.NET och spammet har stoppat helt. Så nu har jag bättre samvete i denna fråga.

Men jag skulle tipsa andra utvecklare att se över sina gamla sidor, det är inget bra att ha såna här gamla applikationer som ligger och skräpar. Dels så växer era databaser och tar en massa utrymme. Sen skräpas sökresultaten ner ordentligt och det blir svårare att hitta relevant information.

Hur kan man stoppa spam?

Så vad gör man om man har problem med webbspam? Om du använder Wordpress har jag hört att tillägget Akismet fungerar väldigt bra. Läs t ex på TechCrunch hur det stoppar runt 15000 spam varje dag i deras blogg.

Om du utvecklar din egen blogg så kan du göra ditt eget skydd. media:screen berättade ett tag sen hur de stoppade spam på ett relativt enkelt sätt. De ville inte göra det för besvärligt för besökarna att lämna kommentarer, vilket är klokt.

Att använda en så kallad CAPTCHA-funktion är ett annat sätt som är rätt vanligt. Dock kan detta hämna besökare att lämna kommentar vilket inte är så bra. Gör den absolut inte så överdrivet komplicerad som i detta exemplet.

Här på Code Odyssey har vi inga spam-problem hittills vilket nästan är lite tråkigt. Det enda försöket har varit den kinesiska spammaren, men där rörde det sig nog om en människa.

Ska inte klaga för mycket men tycker det endå är lite roligt att se hur spam-robotar fungerar och lista ut sätt att överlista dem. Vi använder ASP.NET och enligt min erfarenhet så stoppar ramverket spam nästa automatiskt. Det vore väldigt intressant att höra av någon annan som har problem med spam på applikationer som kör ASP.NET.

Om nu spammet skulle komma igång så har jag tänkt att prova på NoBot i ASP.NET Ajax Control Toolkit. Denna ska enligt beskrivning känna av att mönstret på postningen liknar en människas aktivitet och stoppa de ovälkomna botsen.