WWW-robots (ook wel crawlers of spiders genoemd) zijn programma's die webpagina's doorlopen door gelinkte pagina's recursief op te halen. Als de robot van een spammer uw website, weblog of forum bezoekt, zal deze alle pagina's waar u naar linkt doorzoeken op e-mailadressen. U kunt u zich tegen deze robots verweren! Daarvoor hoeft u alleen maar naar de SpamPoison pagina te linken, zodat de robot van de spammer er naartoe getrokken wordt wanneer deze uw pagina doorzoekt.
Robots die e-mailadressen verzamelen zullen in een eindeloze lus terechtkomen en dynamisch gegenereerde valse e-mailadressen ophalen, waardoor ze enorme hoeveelheden gefingeerde gegevens aan de gegevensbestanden van de spammers toevoegen en die zodanig vervuilen dat ze feitelijk onbruikbaar worden. Spammers zullen hun gegevensbestanden moeten opschonen om niet zeer veel teruggekomen e-mail te ontvangen.
- 1 Користувачі, які знайшли це корисним