Habe seit 10.02.2007 täglich 2x englischsprachige Spam. Aus den Logsdateien ist ersichtlich von wo aus die Aktionen kommen. Ein gemieteter Server bei einem ISP. Anruf dort ließ anhand der IP ns.xxxx.providerbeispiel.de sofort Rückschlüsse auf den "Übeltäter" zu. ISP prüft jetzt Sachverhalt und leitet "entsprechende MAßnahmen" ein.
Ich weiß, die Suchen sich dann den nächsten Hoster u.s.w., aber Teilerfolge gilt es auch zu berichten!
Nachtrag!
Hab nun nach Abgleich der logdateien mit den Spam-GB-Einträgen, die zuständigen IPs ausfindig machen können. Mein Hoster ermöglicht via Web-Interface eine IP Sperre. Darin wurde unter anderen die IP 87.118.108.149 generell für Rootzugriff gesperrt. Da sich hinter 87.118.108.149 ein gemieteter Server verbirgt, wird der kompletto gesperrt. Die 2 anderen ns.1234.providerbeispiel.de von denen der Spam abgesetzt wurde, sind in einer IP-Range, die wurde auch gesperrt, allerdings nur aufs cgi-bin und cgi-data, da ja normaler Zugriff auf Website erwünscht ist und man nicht alle Kunden von ip-con...upps, jetzt hätte ich doch beinahe etwas verraten. Hat noch jemand weitere Tipps. Her damit!
Eure Schnuckel
*************
Fucking like hacking, find a hole and exploy it!
irgendwer meinte das solle man tun und irgendwer meinte das das vllt doch Menschen sind...
Nein, diese Meldungen liest kein Programm und auch kein Mensch. Ausserdem interessiert deutsches Recht hier nicht. Hier gibt es Infos zur Motivation des Spams. Da ist ein grosser Batzen Geld mit "verdient".
[Link nur für registrierte Mitglieder sichtbar. ]
[Link nur für registrierte Mitglieder sichtbar. ]
Die hier geposteten Lösungen sind teilweise sehr komplex und nur teilweise wirksam. Captcha habe ich wieder rausgeworfen, da das eher die User behindert. Wer dennoch Captchas verwenden möchte, hier gibts Infos zur Wirksamkeit gegen spam captcha decoder
[Link nur für registrierte Mitglieder sichtbar. ]
Momentane Zwischenlösung bei mir:
Ich wechsle ab und an die Anzahl und die Namen der Variablen und den Namen des Formulars.
Ist zwar nur ein Wettrennen, aber kommt Zeit kommt Rat.
Vielen Dank für die produktiven aber auch teilweise amüsanten Beträge.
Ein Sperre, die bei mir bislang noch kein Bot überwinden konnte, ist die Verwendung von
[Link nur für registrierte Mitglieder sichtbar. ] (AJAX)
Man benötigt prinzipiell nicht einmal PHP dafür.
Harvester die mit XMLHttpRequests umgehen könnten, würden dadurch so langsam, dass sie praktisch nicht mehr verwendbar wären (weil sie jetzt jeden gefundenen Javascript-Code ausführen).
Per Request muss ein Javascript angefordert werden, was alle modernen Browser problemlos machen. Der zusätzliche Code wird dann einfach in die Seite eingebaut.
Der Schreiberling merkt von alledem nichts und muss auch keinen Captcha-Code oder ähnliche Aufgaben lösen...
Beispiel - Nachladen von Javascript-Code aus: script.php:
Code:
var p = null;
try
{
p = new XMLHttpRequest();
} catch (e) {
p = new ActiveXObject('Msxml2.XMLHTTP');
}
try {
netscape.security.PrivilegeManager.enablePrivilege('UniversalBrowserRead');
} catch (e)
{
}
if (p) {
p.open('GET', 'script.php?noCache=' + Math.floor(Math.random()*10000), false);
p.send(null);
eval( ... p.responseText ...);
...
Der scheinbar überflüssige Code (netscape, Math) umgeht einige Browser- und Cache-Probleme.
Geändert von Sirius (12.03.2007 um 09:58 Uhr)
Irren ist menschlich - aber für richtig dumme Sachen braucht man einen Computer.
Lesezeichen