PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Absicherungsmaßnahmen für Gästebücher, Foren, Weblogs, ...



exe
15.03.2006, 15:24
Da ja die Fragen sich hier in letzter Zeit wiederholen, möchte ich hier auf das Problem und seine Möglichen Lösungen eingehen. Wenn einer der Admins Lust hat kann er das Thema ja auch sticky machen. Ideen, Korrekturen, Ergänzungen usw. per PN an mich oder einfach darunter schreiben. :D

Problem
Gästebücher, Foren, Wikis, Weblogs, Shoutboxen und Kommentarfeldern sind von dieser Art von Spam betroffen. Oft werden dort Einträge gemacht, die als Inhalt Links diverse Internetseiten enthalten. Der Grund für diesen Spam ist, bei Google und anderen Suchmaschinen einen möglichst hohen Pagerank (http://de.wikipedia.org/wiki/Pagerank) für die Seite des Spammers zu erzeugen. Google bewertet eine Internetseite höher, wenn sie von vielen anderen Seiten verlinkt wird. Er will also in den Suchtreffern möglichst weit nach oben gelangen und dazu erzeugt er Einträge z. B. in Gästebüchern und verlinkt von dort aus seine Seite.

Das alles wäre im Grunde ein recht kleines Problem, weil man die Einträge ja wieder manuell löschen könnte. Leider lassen die meisten Spammer diese Aufgabe von so genannten Bots (http://de.wikipedia.org/wiki/Bot) erledigen. Diese Computerprogramme erzeugen solche Einträge automatisiert und oft werden die gleichen Einträge immer und immer wieder wiederholt. Oft kommen Bots täglich oder mehrmal die Woche um den gleichen oder ähnlichen Mist abzuladen. Diese Bots rufen die Seite mit den Einträgen meist garnicht auf, sie füllen nur das Formular mit ihren Werbeeinträgen und schicken es an den Server ab.

Lösungen
Vorab eines: Die perfekte Lösung gibt es nicht. Man kann dem Problem auf viele Arten begegnen, irgendwie hat aber jede Art ihre Vor- und Nachteile. Ich werde diese aber bei jeder Lösungsmöglichkeit dazu schreiben. Leider sind die wirkunksvollen Lösungen aber nicht ganz ohne technisches Wissen einsetzbar. Viele fertige Skripte verfügen aber über ein paar Vorkehrungen um den Spam zu minimieren, seht euch also die Optionen an und vergleicht die Software mit anderer Software. Folgende Beispiele werden immer anhand eines Gästebuches beschrieben, das grundsätzliche Vorgehen ist aber bei allen Onlineformularen, wie Weblogs, Kommentarfelder usw. gleich.

Grundsätzliches
Da die Werbeeinträge fast immer von Bots getätigt werden, welche das Eingabeformular analysieren und automatisch beschicken, empfiehlt es sich ein paar grundsätzliche Regeln zu beachten um der großen Spamwelle zu entkommen.

Nehmt wenn möglich keine fertigen Skripte und wenn ihr sie einsetzt ändert sie etwas ab (wie unten beschrieben). Fertige Gästebücher sind den Spammern gut bekannt und er weiß wie er welche Felder mit seinem Mist befüllen muss. Sucht auch nach alternativen Skripten und nehmt nicht das erstbeste. Es gibt mittlerweile genügend Websoftware die wenigstens die einfachsten Filter und Spamschutzfunktionen mitbringt. Meist gegnügt das schon.
Benutzt bei den Eingabefeldern im INPUT-Tag als Feldnamen nicht "email", "name" oder "comment". Ändert die Feldnamen auf "aaa" oder "asdf1". Damit ist es Bots schon mal nicht möglich anhand des Feldnames den gewünschten Inhalt des Feldes herauszufinden. Dann scheitern sie z. B. daran, dass sie ein Feld, welches eine syntaktisch korrekte E-Mail-Adresse enthalten muss (irgendwas [at] domail.tld), mit Mist befüllen der keine E-Mail-Adresse ist.
Nennt eure Gästebuchseite nicht "guestbook.html" oder "gaestebuch.php", ihr macht es den Spammern damit nur leichter die für sich interessanten Seite bei Google zu finden.
Lasst euch bei jedem neuen Eintrag eine E-Mail senden, damit ihr reagieren könnt falls etwas vorfällt.


Moderation
Die Moderation ist die einfachste Lösung für das Problem. Moderation bedeutet, euer Gästebuch nimmt einen Eintrag entgegen, aber veröffentlicht ihn nicht sofort. Es sendet euch einen E-Mail und lässt euch entscheiden ob der Eintrag erscheinen soll oder nicht. Diese Lösung hält euer Gästebuch zu 100% werbefrei, leider ist es aber mit etwas Arbeit verbunden und eure Besucher sehen ihre eigenen Einträge auch nicht mehr sofort.

Disclaimer / Nutzungsbestimmungen
Vereinzelt wurde im Forum besprochen (http://www.antispam-ev.de/forum/showthread.php?t=10191), man könnte das Problem lösen, indem man in sein Gästebuch ein virtuelles "Verbotsschild" (oft auch als Disclaimer bezeichnet) montiert. Man verbietet also ausdrücklich, dass in dem Formular Werbeeinträge erfasst werden. Dies könnte einzelne davon abhalten dort ihre Spameinträge zu hinterlassen, weil sie rechtliche Folgen befürchten. Leider interessieren sich Bots überhaupt nicht für diese Verbote, sie wollen nur ihren Müll loswerden. Außerdem kommen viele Bots aus dem Ausland, so dass eine effektive strafrechtliche Verfolgung meist unmöglich wird. Disclaimer sind also schönes Beiwerk, wirklich bringen werden sie in der Praxis aber nichts.

IP-Blacklists
Unter Blacklisten versteht man eine Art der Filterung gegen eine Liste von bekannten Bösewichten. So kann man bekannte IP-Adressen oder ganze Adressbereiche auf eine Liste setzen und von diesen keine Einträge mehr annehmen. Grundsätzlich kann man die Filterung durch den Webserver erledigen lassen (s. Beitrag von dk99hi (http://www.antispam-ev.de/forum/showpost.php?p=48924&postcount=4)) oder man schreibt sich selbst ein kleines Skript welches unerwünschte Gäste fern hält. Der Aufwand für solche Blacklisten ist mittelmäßig. Sie müssen von euch regelmäßig manuell aktualisiert werden, sonst werden sie nutzlos. Außerdem gibt es auch gegügend Bots welche auf Einwahlnummer laufen, die alle 24h ihre IP-Adresse ändern. Hier müsstet ihr dann ganze Subnetze blockieren um den gewünschten Erfolg zu erreichen. Es gibt auch Blacklisten die von anderen gewartet und aktualisiert werden. SURBL (http://www.surbl.org/) bietet eine solche URL-Blacklist an. Mit ihr kann man Beiträge ausfiltern lassen welche bestimmte URLs enthalten und damit sind wir schon beim nächsten Punkt.

Filter
Der Einsatz von Filtern kann auch sehr nützlich sein. Man kann die Beiträge z. B. nach bestimmten Schlüsselwörtern oder ganz allgemein nach URLs durchsuchen und solche Beiträge ablehnen. Weiterhin sollte man auch falls möglich HTML, JavaScript und solches Gedöhns ausfiltern und/oder kodieren. Gute Dienste leisten hier in PHP die Funktionen "strip_tags()" und "htmlentities()". Natürlich können dann aber auch keine normalen Besucher Einträge mit URLs verfassen. Sollte sich diese Filterung deshalb nicht einsetzen lassen, empfehle ich die Links mit dem Attribut rel="nofollow" auszustatten. Für Google erzeugt dieser Link dann keinen Pagerankwert mehr (s. Punkt 14 - http://www.google.com/webmasters/bot.html#www).

Cookies / Referer
Wer in PHP fit ist, kann auch den Trick mit den Cookies probieren. Dabei erzeugt man auf der Einstiegsseite des Gästebuchs auf dem Rechner des Eintragenden ein Cookie. Wird eine Eintrag erfasst prüft man, ob der Browser dieses Cookie mitgeliefert hat. Wenn nicht wird der Eintrag ignoriert. Ähnliche Spielereien sind auch mittels der Session-Funktion von PHP möglich. Leider können dann Benutzer ohne aktivierte Cookies keine Einträge mehr verfassen und auch vor schlauen Bots bietet dies keine Sicherheit. Sie können das Cookie wie gewünscht zurückliefern. Im Moment aber ist diese Variante noch sehr sicher, es wurden noch keine Bots gesehen die dies konnten. Genauso fläschbar sind Überprüfungen des Referers (http://de.wikipedia.org/wiki/Referer), auch wenn dieser Check im Moment noch recht effektiv sein sollte.

Captchas
Unter Captchas versteht man meist Bilder aus denen mal eine Buchstaben- und Zahlenkombination ablesen muss. Captchas (de.wikipedia.org/wiki/Captcha) sind mittlerweilen bei allen großen Onlinediensten verbreitet. Sie sind von Rechnern sehr schwer oder nur mit erheblichem Rechenaufwand auszulesen (wenn es auch nicht unmöglich ist - http://sam.zoy.org/pwntcha/) und deshalb z. Z. fast 100%ig sicher. Der größte Nachteil ist, dass Besucher mit reinen Textbrowsern oder z. B. blinde Menschen nicht in der Lage sind diese Bilder in ihrem Browser zu sehen. Sie werden damit auch ausgeschlossen.

zusätzliche Felder
Hier im Forum wurde auch schon der Einsatz von zusätzlichen Feldern empfohlen. Dabei muss der Eintrager in ein bestimmtes Feld einen vorgegebenen Text eingeben, welcher daneben steht. Im Grunde sind solche Überprüfungen recht leicht zu umgehen. Allerdings wird dies noch kaum ein Bot automatisiert schaffen. Eine weitere Spielart sind einfach zu lösende Rechenaufgaben.

Spastispam
16.03.2006, 20:39
Du hast alles hier in der letzten Zeit "wild diskutierte" mal sehr schön zusammengefaßt. Danke! ;)

mikki
02.05.2006, 22:13
Hallo Exe,

auch von mir ein grosses Kompliment zu Deinen ausführlichen Beitrag. Dieser hat mir bei der Problemlösung auf meiner Webseite viele Anregungen gegeben.

Sofern man z.B. in php einigermassen fit ist, ist es meiner Meinung nach am besten wenn man sich die Logfiles genau anschaut und sich individuell ein Script schreibt, welches die wirklich auffälligen Besucher automatisch sperrt. Man wird natürlich nie alle Bots erwischen :-)

Es ist schon sehr witzig wenn man sieht... man sperrt eine IP-Adresse (meistens Open-Proxys) und nach wenigen Minuten starten genau die gleichen Seitenaufrufe wieder unter einer anderen IP - und das wiederholt sich nicht einmal - nein, mehrmals!

Habe mit einem kleinen Script schon mehr wie 40 Attacken seit gestern blocken können. Aber wie schon gesagt, sowas muss man individuell schreiben.

Formularspam wird bei mir auf vorhandensein von Links mit href geprüft. IP-Adressen die sowas Posten (Mit oder ohne Aufruf des entsprechenden Formulars) werden sofort gesperrt weil die ansonsten meist noch die Webseite weiter nach anderen Formularen durchsuchen.

Nochmals DANKE für den ausführlichen Beitrag!

Ich werde gerne meine Erfahrungen in diesem Board weitergeben!

Gruss
Michael

Guenther Weinerth
03.05.2006, 11:59
Hi Exe,

erstmal klasse Beitrag und fein zusammengefasst.

wir haben ein eigenes Gästebuch unter PHP entwickelt und seit ca . 1 Jahr im Einsatz.

So langsam haben die Spammer einige unserer Gästebücher entdeckt und wir haben uns der Problematik mal angenommen und folgende Feststellungen bzw. Erfahrungen gemacht:

- IP-Adressen-Filterung bringt nach meiner Erfahrung nicht viel.

- Hinweise auf rechtliche Konsequenzen bringen nix … was interessiert ein ausländisches Onlinecasino oder ein OnlineViagra-Versender das deutsche Recht. …. ?

- 100prozentigen Schutz gibt es keinen. Man kann es ihnen nur so schwer wie möglich machen, ihre Schrott-Einträge zu platzieren

Wenn Ihr eigene GB habt bzw. verwaltet, Nehmt eine kryptische ID
Wenn eine ID: [ID filtered]
Bei uns hat jedes GB eine sinnfreie kryptische ID: [ID filtered]

Wir haben im Script verschiedene mehrstufige Prüfungen eingebaut

1. Prüfung auf Mail-Domäne
Haben uns eine eigene Blacklist erstellt, die Einträge ablehnt, die auf einen der Einträge verweist „@gmail.com;@email.com;@search.com;@mail.com“ etc…

2. ICQ
auch hier eine Blacklist mit „123456789“ etc. Wenn Ihr den ICQ-Link verfolgt, kommt Ihr immer beim gleichen Schrott raus.
Im Moment kennzeichne ich Einträge mit einer gültigen Maildomäne und ICQ-Adresse und lasse mir den Eintrag zumailen.
Ist der Eintrag jedoch OK, übertrage ich manuell in das GB…… worauf ich seit 2 Monaten warte :o) … Rest ist Schrott.

3. Prüfung auf Links und Keyworter.
Konzept wie bei 1 und 2

Gästebücher die weiterhin bespammt werden, bekommen eine neue externe ID: [ID filtered]
Somit bleiben die aktiven GB wieder sauber. …. Bis die Site wieder gefunden wird ….

Sämtliche Spam-Einträge lasse ich mir zumailen, schreibe sie aber nicht in die DB sondern füttere meine Blacklist.
Eventuell lasse ich sie auch gekennzeichnet zum Nichtanzeigen in der Tabelle … mal sehen, wie ich Zeit habe.

Was auf jeden Fall noch als Funktionalität reinkommen wird:

1. Es wird noch die REFERER-Variable ausgewertet. Kommt jemand direkt in das GB ohne vorher auf der Hauptseite gewesen zu sein, wird er auf die Hauptseite erstmal weitergeleitet werden, wo er dann das GB wieder auswählen kann..

2. Beim zweiten abgelehnten Eintrags-Versuch leite ich ihn wieder auf die Hauptseite, … oder wenn der Versuch innerhalb von 10 sek kommt, auf ne russische Hackersite wo’s vor Viren und Trojaner grad so wimmelt ;o)

3. eventuell noch Captchas.... mal sehen.


Die GB-Seiten werden nach meiner Meinung das erste mal gefunden und händisch ausgefüllt.
Und anschließend mit Robots/Spiders bearbeitet. Ich erkenne es daran, dass wenn ein Eintrag abgelehnt wird, wird das GB mit einer Serie von Versuchen bombardiert.
….. ca. 10 – 20 Versuche pro Minute !!! ….

Jeweils mit anderer eMail- und ICQ-Adresse ….
Und das kriegt kein Mensch über copy & Paste hin.


Gruß

Günni

Wurgl
03.05.2006, 12:27
1. Es wird noch die REFERER-Variable ausgewertet. Kommt jemand direkt in das GB ohne vorher auf der Hauptseite gewesen zu sein, wird er auf die Hauptseite erstmal weitergeleitet werden, wo er dann das GB wieder auswählen kann..


Fies! Oder unklar.

Was ist mit Leuten, die aus Paranoia den Referrer gar nicht übertragen?



2. Beim zweiten abgelehnten Eintrags-Versuch leite ich ihn wieder auf die Hauptseite, … oder wenn der Versuch innerhalb von 10 sek kommt, auf ne russische Hackersite wo’s vor Viren und Trojaner grad so wimmelt ;o)


Wertlos! Absolut wertlos. Ein Tool interessiert der 301er oder 302er Status deines Servers einen $%&$@§. Damit ärgerst du nur Menschen, aber kein Spammer-Tool. Vergiss das bitte!



Günni
Hmm, warum bekomm ich jetzt Lust auf Weißwürste:D

Guenther Weinerth
03.05.2006, 13:12
>Hmm, warum bekomm ich jetzt Lust auf Weißwürste
Weiß nicht, sags mir :o)

Dass manche Sachen bei Spamabwehr fies sind, ist nicht zu bestreiten. Wenn ich aber irgendwo zu Besuch bin, sollte ich mich auch benehmen, wie es der Hausherr wünscht, ... und Spam hinterlassen find ich eben nicht als OK und versuche mich dementsprechend zu wehren wenn's sein muss dann eben auch mit fiesen Mitteln.

Meine GB-Kunden freuen sich, wenn ihr GB eben dadurch n Stückchen sauberer bleibt und das ist mir schon wichtig.

... und ey ... das mit der russischen Site war n Joke ;o)



Günni

Wurgl
03.05.2006, 13:25
>Hmm, warum bekomm ich jetzt Lust auf Weißwürste
Weiß nicht, sags mir :o)

Dass manche Sachen bei Spamabwehr fies sind, ist nicht zu bestreiten.


Bei Günni muss ich immer an die Schwanthalerstrasse in MUC denken. Und da komm ich halt auf die Weißwürschte.

Und zu dem Referrer: Ich selber hab den gelegentlich abgedreht. Wenn man tief im Dreck des Web wühlt, dann soll der aufgewühlte Dreck nicht mitbekommen woher man gekommen ist. Gut, ich bin kein Gästebuchbesucher, ich versteh den Sinn von Gästebüchern ganz einfach nicht. Wahrscheinlich hat der typische Gästebuchbesucher so einen Drang wie ihn Hunde verspüren, überall eine Markierung setzen und das Revier abstecken?

Aber zurück zum Referrer. Es gibt da einige Seiten, die verfallen in einen Endlosloop, wenn man denen keinen Referrer mitliefert. Aber wozu brauchen die denn den Referrer? Wenn ich auf die Hauptseite surfe, dann hinterlasse ich dort einen Eintrag *mindestens* im Logfile des Servers. Wozu einem fälschbaren Referrer vertrauen, wenn es den sicheren Eintrag am Server selber gibt -- identifizierbar durch die Kombination von IP-Adresse und Browser-Kennung?

Guenther Weinerth
03.05.2006, 13:41
Bei Günni muss ich immer an die Schwanthalerstrasse in MUC denken. Und da komm ich halt auf die Weißwürschte.


sind sie dort wenigsten lecker? :p

Der Vergleich mit der Hundeduftmarke is net schlecht :)

Das mit den Logfiles muss ich mir mal anschauen. Danke


Günni

heinerle
03.05.2006, 15:12
Bei Günni muss ich immer an die Schwanthalerstrasse in MUC denken. Und da komm ich halt auf die Weißwürschte.

sind sie dort wenigsten lecker? :p
...
Es geht da mehr um einen Anwalt, der mit Vornamen Guenther (Spitzname Günni) heißt und in früheren Zeiten auch als Tanja Mailboxbetreiber (meist Schüler) zum unberechtigten Kopieren von Software angestiftet und anschließend abgemahnt/verklagt hat. Hat am oben genannten Ort eine Kanzlei mit einem weiteren Bernhard Syndikus (http://de.wikipedia.org/wiki/Syndikus) betrieben, der z.B. im Zusammenhang mit FTPWorld auffällig geworden ist.

exe
08.05.2006, 12:58
Eine andere schöne Idee (http://www.antispam-ev.de/forum/showthread.php?t=10792) war, das Captcha nur anzuzeigen wenn z. B. die IP verdächtig ist oder sonstige Kriterien eintreten, die einen Eintrag verdächtig erscheinen lassen.

Ist deshalb praktisch, weil 95% aller Nutzer kein Captcha ausfüllen müssen. Ob das mit den IPs in Zeiten von Bots allerdings so eine gute Idee ist, wäre zu prüfen. :)

Guenther Weinerth
14.05.2006, 11:14
@Exe: IP-Adressen Filterung: Jein.

Ich dokumentiere momentan von jedem GB-Besucher die IP-Adresse. Sind sehr viele unterschiedliche IP-Adressen .... aber auch einige, die sich immer wiederholen und mit Spam versuchen.

Nach meiner Meinung merken die, dass Du einen Block auf die IP machst, dann nehmen sie eben die nächste. .... das schaffen die Bots immerhin ca. 20 - 30 Mal in der Minute.

Ich denke eh, dass das ne gefakete IP-Adresse ist, die die benutzen.

Was sich als ziemlich wirksam erwiesen hat, ist die Filterung auf ICQ-Adressen ..... das sind bisher immer die selben.

Werd mir wahrscheins so ne Nummer einfallen lassen, dass wenn meine Prüfroutinen greifen, werde ich mir den Eintrag mit allen Daten zumailen lassen und damit der Bot zufrieden ist und die Bomardements an Versuchen aufhören, werde ich ihm seine Eingaben einfach ausgeben, aber nicht in der DB speichern.

Gaukelt er mir seine IP oder sonst was vor gaukle ich ihm halt seinen Eintrag vor und gut ist.

Geht halt mal ein zu akzeptierender Eintrag durch die Lappen bekomme ich ihn zugemailt und füge ihn dann manuell ein, bzw lasse ihn duch den GB-User eintragen.

Habe all meinen GB-Usern ne neue ID: [ID filtered]

Habe im Moment in all meinen aktiven GBs vor Spam Ruhe.
Von daher bin ich mit meiner Lösung im Moment schon sehr zufrieden, werde aber noch weiter ausbauen, da diese *Piep*keine Ruhe geben werden.

Gruß zum Sonntag

Günni

Wurgl
14.05.2006, 11:33
Ich denke eh, dass das ne gefakete IP-Adresse ist, die die benutzen.

...

Gaukelt er mir seine IP oder sonst was vor ...

IP-Adressen die bei TCP verwendet werden, lassen sich nicht faken, der Grund liegt im Verbindungsaufbau. Und das HTTP-Protokol basiert auf TCP.

UDP kann gefakt werden, oder das erste Paket bei einem TCP-Verbindungsaufbau. UDP ist für HTTP irrelevant und wenn bei TCP das erste Paket gefakt ist, dann wäre damit maximal ein DDOS-Angriff, aber Daten werden da nicht übertragen.

Nachtrag: Der Kerl könnte über einen anonymen Proxy gehen, dann siehst du die Adresse des Proxy und nicht des Kerls, aber die IP-Adresse ist immer noch eine existierende.

exe
14.05.2006, 17:49
Verdammt der Vorturner war wieder schneller und jetzt wollte ich doch mit meinem TCP/IP-Wissen prahlen.

Eine Filterung gegen IP-Listen von offenen Proxys ist sicher auch nicht die schlechteste Idee.

SpamRam
14.05.2006, 20:16
Die monatlich erscheinende "Internet PROFESSIONELL" Ausgabe 6/06 beschreibt in einem 4-seitigen Artikel unter dem Titel "Spam abschießen" wie man "Interaktive Websites vor Spammern schützen" kann.

Auf der Webseite www. internet-pro.de wird auf den Artikel hingewiesen.
Weblog-Spammer ohne Chance
An Stelle eines Inhaltsfilters prüft hier ein Skript mit verschiedenen Tricks, ob ein Spammer Werbung und Links einmogeln will.
Evtl. kann man den Artikel als "Leseprobe" runterladen.

Der Artikel beschreibt detailliert und mit Code-Beispielen, was man alles tun kann, um Spam im Gästebuch oder anderen interaktiven Seiten zu vermeiden/verhindern.

Vielleicht auch für die Experten ganz lesenswert.

Spastispam
18.05.2006, 16:52
Ich möchte übrigens einmal anmerken, daß ich schon seit Jahren verschiedene Flash-basierte Gästebücher am laufen habe, von denen kein einziges jemals von Spam betroffen war und ist.

Die Interaktion mit dem Server läuft dabei wie gewöhnlich über PHP und MySQL ab.

Da die Spammer keine Chance haben so einfach an die Lokation des Skriptes und die Formular-Variablen heranzukommen (dies würde bedeuten, sie müßten den Flash Movie erst binär dekompilieren und dann noch komplex logisch untersuchen), können sie auch nicht so ohne weiteres Ihre Spamaktionen entfalten ...

Außerdem ist HTMLcodierter Text in Flash ohnehin nur über sehr spezielle interne Methoden möglich...

Hi hi hi ... :D

Spastispam
18.05.2006, 17:12
...übrigens haben auch Suchmaschinen (aus gewissen Gründen) keine Chance an die Flash-basierten Gästebucheinträge heranzukommen.

Ich finde auch, daß Suchmaschinen in Gästebüchern GENERELL nichts verloren haben. Das Problem mit dem Pageranking-Gerangel existiert überhaupt erst duch die blödinnige Tatsache, daß "Google Boots" unentwegt in solcherart privaten Bereichen der Webseitenbetreiber herumschnüffeln...

Unterbindet Suchmaschinen Bots den Zugriff auf Eure Gästebücher und es sollte für die Spammer dann mit der Zeit so ziemlich uninteressant bei Euch werden ...

Seriöse Suchmaschinen halten sich an die Einträge in der "robots.txt".

Manchmal habe ich jedoch den Eindruck, daß es Google&Co geradezu darauf abgesehen haben all den illegalen Mist und Schwachsinns-Kommerz wie blöd zu ranken. Jedenfalls scheint da niemand wirklich daran interessiert zu sein, wenigstens die TOP Rankings wirksam nach gewissen Regeln zu "filtern"...

Wir kennen das ja inzwischen schon alle: meistens stehen die "Warez" Links noch vor den eigentlichen Produktanbietern und so weiter...

Chactory
09.06.2006, 01:14
1. Kann man vielleicht auch mit einem PHP-Script erkennen, ob ein Gästebuch- oder Forumeintrag Buchstabe für Buchstabe erfolgt oder eben mittels Bot rasend schnell erfolgt?
2. Kann man anhand der Art des Zugriffs unterscheiden, ob ein Mensch oder ein Bot auf eine Seite zugreift? (Bin technisch nicht so versiert, daß ich dies mit fachausdrücken formulieren kann, aber ich könnte mir vorstellen, daß solche Unterschiede beim Zugriff bestehen.)
3. Könnte man eine Art Spamwortfilter die Einträge bewerten lassen?

Stalker2002
09.06.2006, 01:33
1. Kann man vielleicht auch mit einem PHP-Script erkennen, ob ein Gästebuch- oder Forumeintrag Buchstabe für Buchstabe erfolgt oder eben mittels Bot rasend schnell erfolgt? Keylogger sind Böse[tm]!
Wenn mir sowas auf einer Website begegnen sollte (Mein Virenscanner warnt mich dann hoffentlich), dann wäre meinerseits Breitseite-DeLuxe angesagt, aber aus allen Rohren...:skull:

MfG
L.

DocF
09.06.2006, 02:34
ja, hallo erstmal ;)

erstmal ne kleine einleitung: dadurch, dass ich meinen kram alles selbst programmiere, hatte ich bisher ruhe vor den gb-spammern, das is aber nu vorbei. deshalb werd ich hier auch mal ein paar comments und vorschläge posten.
nun denn, fangen wir an:

Gute Dienste leisten hier in PHP die Funktionen "strip_tags()" und "htmlentities()".
in diesem fall würde ich "oder" schreiben. wenn man, wie ich, html z.b. für code-beispielen zulassen will, muss man sich für eine variante entscheiden.
ich würde einen quick-and-dirty wortfilter per regex vorher implementieren. das sieht dann so aus:

if (preg_match("/(cialis|propecia|xenical|tramadol|phentermine|baccarat)/i", $text)) {

echo "Fehler: Verpiss dich, Spammer! For our english customers: go fuck yourself (or your mother, i'll leave that to you).");
die();
}
wirkt bei den derzeitigen attacken wunderbar. ich logge das zusätzlich noch zur persönlichen befriedigung mit, und grad, wo ich dies hier schreibe, laufen "helga", "hillary", "bill" und konsorten vor ne wand ;) ausserdem wird die spammer-ip für 24 stunden gesperrt, da dauerhafte blacklists meines erachtens nichts bringen.

Fies! Oder unklar.
Was ist mit Leuten, die aus Paranoia den Referrer gar nicht übertragen?

die sollen in ihrem keller mit ihrem hut aus alufolie sitzen bleiben. :D
mal im ernst, da es auch gefragt wurde, wozu sowas gut ist: der referrer wird z.B. dazu gabraucht, um trafficklau zu verhindern. z.b. kann ein bild nur dann angezeigt werden, wenn es von einer bestimmten website aufgerufen wurde. ich denke aber, dass man einen bot damit nur schlecht aufhalten kann. im prinzip muss man nur die url der hauptseite (lässt sich in den meissten fällen leicht ausrechnen) als fake-referrer mitschicken, und schon gehts wieder.

Die GB-Seiten werden nach meiner Meinung das erste mal gefunden und händisch ausgefüllt.
Das glaube ich eher nicht. zum einen, weil ich schon einträge hatte, wo die felder vertauscht oder unvollständig ausgefüllt waren, zum anderen, weil ich es selbst auch anders machen würde :D
ich werds aber demnächst genau wissen, weil ich mir noch ne möglichkeit überlegt habe, spam abzuwehren, eine art "honeypot" methode:
also, ich gehe davon aus, dass so ein bot das web (meinetwegen über google) eigenständig nach gästebüchern durchforstet. falls er eins findet durchsucht er den quelltext nach bekannten mustern, wie die eingabefelder heissen. also biete ich dem bot VOR dem wirklichen formular in einem versteckten layer ein formular an, welchem er kaum widerstehen kann:


<!-- honeypot -->
<div id="hp" style="display:none">
<form method="post" action="guestbook.php">
<input type="text" name="name" size="30" >
<input type="text" name="email" size="30" >
<input type="text" name="homepage" size="30" >
<textarea name="comment" cols="65" rows="5"></textarea>
<input type="submit" name="Submit" value="Add">
</form>
</div>
<!-- honeypot -->

die datei "guestbook.php" macht natürlich nix, ausser nen erfolreichen "catch" zu loggen. das eigentlich formular hat eher kryptische bezeichnungen für die eingabefelder und ruft auch eine andere datei auf.
ich hab keine ahnung, ob das funktioniert (ist erst seit heut in betrieb) oder schonmal versucht wurde, ABER: wenn mir einer in diese falle tappt weiss ich genau, dass da niemals jemand was von hand ausgefüllt hat, da otto-normal-surfer das formular halt nicht sehen kann.

p.s.: FALLS das jemand schon versucht hat, und das war nix, bitte mal bescheID: [ID filtered]

exe
09.06.2006, 07:54
Ich finde die Idee mit dem "versteckten" Formular ganz nett. Bin mal gespann was dabei raus kommt, gib bitte Bescheid. Mittlerweile bin ich überzeugt davon, dass die meisten Bots einfach jedes Formular ausfüllen, welches ihnen unterkommt. Ich habe auf bestimmte Seiten meiner Homepage gehäufte Zugriffe, welche so real nie zustande gekommen sein können. Auf einer dieser Seite befindet sich nur ein Eingabefeld um Daten zu dekodieren. Ich würde mal vermuten, dass Spammys Bots (egal ob Werbebots oder solche die Mail-Forms sprengen wollen) mittlerweile jeden FORM-Tag mit ihrem Müll vollstopfen, ohne drauf zu achten was hinten rauskommt.

Achja eines noch: Eine schöne Sache die in keinem Antispambot-Skript fehlen sollte ist natürlich das gute alte "teergrubing". Sprich man bremst den Bot ein, indem man erst mal nen sleep(20) macht, bevor die Fehlermeldung auftaucht. :)

heinerle
09.06.2006, 08:45
1. Kann man vielleicht auch mit einem PHP-Script erkennen, ob ein Gästebuch- oder Forumeintrag Buchstabe für Buchstabe erfolgt oder eben mittels Bot rasend schnell erfolgt?
...
Mit JavaScript geht das z.B. mittels onKeyUp:


<form name="GB" action="xy.php" method="POST">
<input ...><br>
<!-- bei Tastendruck Wert von Kommentar nach Check kopieren -->
<input type="text" name="Kommentar" onkeyup="this.form.Check.value=this.value"><br>
<input type="hidden" name="Check" value=""><br>
<!-- Default: JavaScript = aus -->
<input type="hidden" name="JSenabled" value="0"><br>
</form>

<!-- Wenn JavaScript an dann nach JSenabled übertragen -->
<script type="text/javascript" language="JavaScript">
document.GB.JSenabled.value="1";
</script>

Sofern JavaScript an ist wird dies in die Variable JSenabled eingetragen und jeder Tastendruck im Feld Kommentar bewirkt ein Kopieren des Eingabetextes aus Kommentar nach Check. Dein Zielscript testet dann, ob

JSenabled==1 und Kommentar==Check -> OK
JSenabled==1 und Kommentar!=Check -> Bot
JSenabled==0 und Check=="" -> OK
JSenabled==0 und Check!="" -> Bot
JSenabled!=0 und JSenabled!=1 -> Bot


... und natürlich andere Namen für die Felder nehmen!

Chactory
09.06.2006, 13:49
Keylogger sind Böse[tm]!
Wenn mir sowas auf einer Website begegnen sollte (Mein Virenscanner warnt mich dann hoffentlich), dann wäre meinerseits Breitseite-DeLuxe angesagt, aber aus allen Rohren...:skull:
Danke für den Tipp, Stalker2002, ich ziehe diese Idee zurück, wenn es auf so etwas hinausläuft.
Ich wollte eigentlich nur darüner nachdenken, wie man unerscheidet, ob der Eintrag ins Gästebuch durch einen Menschen oder einen Bot erfolgt.
Wenn durch einen Menschen - dann mit Wortfilter weiter prüfen. Wenn durch Bot - sofort löschen.


Mit JavaScript geht das z.B. mittels onKeyUp.
Dein Zielscript testet dann, ob

JSenabled==1 und Kommentar==Check -> OK
JSenabled==1 und Kommentar!=Check -> Bot
JSenabled==0 und Check=="" -> OK
JSenabled==0 und Check!="" -> Bot
JSenabled!=0 und JSenabled!=1 -> Bot

Vielen Dank, heinerle! Tolle Script-Idee!
Wäre denn heinerles Idee und Scriptvorschlag auch in Stalker2002s Augen in Ordnung?

Chactory

Stalker2002
09.06.2006, 16:04
Vielen Dank, heinerle! Tolle Script-Idee!
Wäre denn heinerles Idee und Scriptvorschlag auch in Stalker2002s Augen in Ordnung?

Jepp, da würde ich nicht maulen.

MfG
L.

DocF
10.06.2006, 17:53
Ich finde die Idee mit dem "versteckten" Formular ganz nett. Bin mal gespann was dabei raus kommt, gib bitte Bescheid.
dummerweise is es spamtechnisch grad recht ruhig... wo sind die bots, wenn man sie braucht ... :D

Pierre
10.06.2006, 20:35
Bisher habe ich auch herausgefunden, daß die Bots keinerlei CSS interpretieren. Das ist eine gut ausnutzbare Schwäche; hoffen wir, daß es so bleibt.

exe
11.06.2006, 13:30
Ich würd das CSS aber in eine externe Datei auslagern. Nicht dass der Bot doch mal über das "display:none;" stolpert. ;)

Pierre
11.06.2006, 13:45
ich rüste immer schrittweise auf. Solange kein Bot durchkommt lasse ich es so.

DocF
21.07.2006, 20:19
Ich finde die Idee mit dem "versteckten" Formular ganz nett. Bin mal gespann was dabei raus kommt, gib bitte Bescheid.

die methode funktioniert und sieht in meinem log so aus:
15:14 Wendy (216.99.97.239 ) tripped into the honeypot ;)
15:13 Vincent (84.51.26.124 ) tripped into the honeypot ;)
15:13 Colin (125.14.208.227 ) tripped into the honeypot ;)
...

damit wäre wohl geklärt, dass da nie was "händisch" ausgefüllt wird.

DocF
23.07.2006, 07:55
anmerkung: es wurde auch nur das versteckte formular ausgefüllt. das eigentliche guestbook-formular blieb unangetastet.

exe
24.07.2006, 09:21
Freut mich das zu hören. Ist also ein netter Ansatz um die Bande zumindest mal wieder ein wenig mit der Umgestaltung ihrer Bots zu beschfätigen.

Airport1
23.08.2006, 14:40
schade dass das mit dem css trick hier LAUT "breitgetreten" wird, mache ich schon laenger und tut wunderbar helfen.

Aber es sollte eben nicht zu bekannt werden, hoffen wir dass hier keine oder nicht viele bot betreiber mitlesen.. im neuesten page restrictor von http://www.bot-trap.de/ ist die idee auch verbaut und loggt auch fleissig spam bots. captchas kann man sich wirklich sparen..

Dr. Dooley
24.08.2006, 07:40
Das mit dem Breittreten und doch wieder nicht Bekanntmachen ist ein Konflikt.

Die besten Tricks sind natürlich immernoch die total individuellen, die tatsächlich nur der Forenbetreiber bzw. Webmaster kennt. Anfällig sind alle, zur ob sich ein Bot die Mühe macht, ein total individualisiertes Forum auseinanderzunehmen und zu analysieren, und das nun jedesmal neu, wage ich zu bezweifeln.

Viel besser und einfacher sind da die Standard Scripte, die es im Netz gibt, da lohnt es, zu spamen und zu analysieren. Zumal die Gefahr gering ist, dass der webmaster etwas ändert, da die meisten Betreiber mit Standardscripten weniger Lust/Ahnung/Zeit haben, sich mit den Scripts zu beschäftigen.

Ich habe seit vorgestern keinen Spam Eintrag mehr. Was genau ich getan habe, ist natürlich ein Geheimnis, das mich immerhin 10 Stunden Idee-Kreativ-Arbeit gekostet hat. Je kreativer man beim scripten ist, desto besser ist es natürlich - je unkreativer, desto einfacher für den Betreiber

exe
24.08.2006, 08:00
Der CSS-Trick funktioniert im Moment noch recht gut. Außerdem wird es Spammy einiges an Hirnschmalz kosten das in seinen Spambot zu interieren. Und wenn er es geschafft hat, dann wird der CSS-Trick eben in eine externe CSS-Datei ausgelagert, dann darf Spammy diese auch noch parsen. Das wird er aber niemals machen so lange dieser Trick nicht von jedem fünften Gästebuch / Formular angewandt wird.

Hat eigentlich schon mal jemand HTML-Kommentare versucht? Also die "<!--" und "-->" Tags, ich könnte mir vorstellen, dass Spammys Bots das auch noch nicht kennen. :)

Im Moment sieht es gut aus, dass man noch Spamabwehr basteln kann welche ohne Captchas auskommt.

Pierre
24.08.2006, 09:04
Der CSS-Trick ist ja nun auch nicht so revolutionär. Da kommt jeder nach einer Analyse der Logfiles drauf.

Ein funktionierender Spam-Bot würde wohl einen "richtigen" Browser benutzen/fernsteuern. Glücklicherweise scheinen die hierzu noch keine Ressourcen zu haben.

DocF
25.08.2006, 17:25
Freut mich das zu hören. Ist also ein netter Ansatz um die Bande zumindest mal wieder ein wenig mit der Umgestaltung ihrer Bots zu beschfätigen.

ist nicht nur ein netter ansatz, sondern fängt bei mir seit wochen ca.95% spam ab. der rest rennt in die badwordlist.
hat das eigentlich mal jemand anderes ausprobiert? würd mich mal interessieren...

Dr. Dooley
26.08.2006, 02:09
Hallo,

also die beste Methode ist meiner Meinung nach immernoch, irgend etwas total individuelles zu machen. Ganz einfach aus der Logik heraus funktionieren diese Spamattacken nur bei Masse und kein Spamer setzt sich hin, seinen Bot auf ein absolut individuelles GB oder Forum anzupassen, das der Webmaster binnen Minuten ändert oder weiter individualisiert. Viel lieber geht der Spamer doch rein logisch gesehen hin und versucht, soviele standardisierte Books wie möglich zu greifen, die er dann in einen Pot steckt.

Es bringt eigentlich nichts, breit getretene Maßnahmen anzuwenden.

Früher hat es gereicht, wenn man verboten hat, per JavaScript oder PHP, leere Felder abzusenden, danach hats gereicht, exakt gleiche Einträge zu blocken, so hat man wenigstens nur immer einen Spam Eintrag gehabt. Jetzt kommt das nächste und dann wieder der nächste Trick.

Das bringt meiner Meinung nach recht wenig, denn ich sehe selbst an meinem Log, dass die Spamer ohne Probleme Referer täuschen können. Auch bringt das Aussperren von Asiatischen IPs nichts, dann nutzen die Spamer eben Proxys aus Europa oder gar Deutschland. Die Badwordlist muss irgendwann so dick und voll sein, viagra in allen Varienten beinhalten, dass die Durchsuche der Texte elendig lahm wird und eine Spam Attacke das GB kurz oder lang auch lahm legt, auch wenn das nicht im Interesse des SPamers liegt, ruiniert er einem auch das Vergnügen.

Beispiel:
Viagra ist gesperrt, kommt
v*iagra, danach vi*agra und wenn dieses schema ausgereizt ist, kommt V#iagra und so weiter. Die Badwordliste hilft nur in absolut allgemein gehaltenen Worten, mehr eigentlich nicht.

crowaz170
09.01.2007, 09:54
:confused: Hallo,
ich bin dabei meine eigene homepage zu getsalten, bzw. mein eigenes Forum zum Thema déutsch Rap. Kann mir einer da ei Programm empfehlen womit man Foren erstellen kann. aber bitte keine voicebox oder wie auch immer das heißt.
Danke

Und da wäre noch was: Was ist der Unterschied zwischen einer Domain und einer Subdomain, weil ich eine Homepage beantragt habe und zwar www.iogr.de. der antrag ist abgelehnt worden. Trotz das die sSeite noch zu vergeben ist. Statt dessen habe die mir jetzt die Seite www.iogr.de.tl zugewiesen. was kann ich mit " .de.tl " anfangen???

Nochmal Danke

Crowaz170 aka MajoR_BarS :confused:

richter169
23.02.2007, 00:52
unser forum wurde von Spamms überschwemmt. Wir haben sie immer gelöscht.

Dann gab es ein Urteil in Den hagg gegen einen Spammer. Er wurde zu 75.000 Euro verurteilt weil er (ich glaube 9 Milliarden) Spammmails verschickt hat.

Diese Urteil habe ich in englisch, Russisch und Deutsch von einer sicheren Seite geschickt.

Ich habe das Urteil ergänzt um den Satz "Spamming ist in den USA verboten, in Deutschland auch".

Sichere Seite, weil dort nur ein paar Mailadressen was drauf schicken können. Alle anderen landen gleich in den großen Abfalleimer und verschwinden.

SeID: [ID filtered]

Bis dann
LG Richter169
;) ;) ;)

Reinhold Jordan
23.02.2007, 11:17
Hallo,

also die beste Methode ist meiner Meinung nach immernoch, irgend etwas total individuelles zu machen. Ganz einfach aus der Logik heraus funktionieren diese Spamattacken nur bei Masse und kein Spamer setzt sich hin, seinen Bot auf ein absolut individuelles GB oder Forum anzupassen, das der Webmaster binnen Minuten ändert oder weiter individualisiert. Viel lieber geht der Spamer doch rein logisch gesehen hin und versucht, soviele standardisierte Books wie möglich zu greifen, die er dann in einen Pot steckt.
das stimmt im Prinzip, ist aber keine Garantie. Mein Gästebuch ist komplett selbst geschrieben, aber da kommen trotzdem regelmäßig Müll-Einträge.

Nachdem sich vor einiger Zeit mal ein Skriptkiddie austoben wollte, habe ich das Buch kurzerhand so erweitert, daß nur noch die Meldung kommt "Vielen Dank. Der neue Eintrag wird so bald wie möglich angezeigt". Und ich brauche den Eintrag nur frei zu geben. Das macht natürlich nur Sinn, wenn im Gästebuch nicht viel los ist. Bei Foren oder gut besuchten Gästebüchern wäre das zu langsam und zu viel Arbeit

Gruß, Reinhold

richter169
24.02.2007, 01:16
Hallo,
wir haben eine Moderatorenmannschaft das dann von Morgens 6 Uhr bis nachts 2.30 uhr einer immer da ist. Wir lassen einfach die Leute reinschreiben und löschen in nachgang.

Es wird uns aber langsamm zu viel. Deswegen meine Fragen nach einen sicherungssystem, das einigermassen was taugt.

Ich habe unsern Techniker auf eure Seite aufmerksamm gemacht und er hat hier eine gute Idee gefunden. Zusammegesetzt aus mehreren Vorschlägen von euch.

Vielen dank.

Bis dann
LG Richter169

actro
24.02.2007, 09:23
im zusammenhang mit kommentarspam bin ich auf diese seite (http://www.sistrix.com/news/533-laender-via-htaccess-sperren.html) gestossen.. nachdem ich schon seit einiger zeit die bots automatisch per .htaccess ausspere, hab ich nun gleich die "auffälligen" länder komplett geerdet.

aber vorsicht! eine grosse .htaccess kann zu einer verlangsamung der ausgabe führen, also mit bedacht einsetzen.. oder halt bei entsprechenden möglichkeiten die liste direkt in die firewall integrieren ;)

Reinhold Jordan
24.02.2007, 10:00
Hallo,

aber vorsicht! eine grosse .htaccess kann zu einer verlangsamung der ausgabe führen, also mit bedacht einsetzen.. oder halt bei entsprechenden möglichkeiten die liste direkt in die firewall integrieren
wäre es da nicht sinnvoller, eine Datenbank einzusetzen? Die existiert doch sowieso meistens. Und dann z.B. diese Daten zu nutzen: http://ip-to-country.webhosting.info/node/view/6

Gruß, Reinhold

actro
24.02.2007, 10:05
ist mit sicherheit auch nicht verkehrt, aber bei dem hohen spamaufkommen zur zeit würde ich dringend davon abraten. die geschwindigkeit eines servers auf LAMP-basis ist stark davon abhängig, wieviel der mysql-datenbank der server im ram vorhalten kann. sobald die db die grenzen des physikalischen speichers erreicht hat, wird der server strapaziert und unwahrscheinlich stark ausgebremst.

bei einem server mit nur 1 anwendung, bzw einem root, den man für sich alleine hat, ist das sicherlich möglich. sobald aber mehrere applikationen laufen oder auf einem kundenserver würde ich davon abraten und stattdessen auf firewall-rules setzen.

davon mal ab haben einige leute gar nicht die möglichkeit und sind auf .htaccess angewiesen, diejenigen, die ihr blog/forum/gästebuch bei einem freehoster haben oder "zur miete" wohnen zum beispiel..

Reinhold Jordan
24.02.2007, 10:17
bei einem server mit nur 1 anwendung, bzw einem root, den man für sich alleine hat, ist das sicherlich möglich. sobald aber mehrere applikationen laufen oder auf einem kundenserver würde ich davon abraten und stattdessen auf firewall-rules setzen.
ich bin da etwas verwöhnt mit eigenem Server und vergesse das gelegentlich ;)
Aber ich frage mich, ob der Apache diese mehrere MB große .htaccess schneller lesen kann, als mySQL diese 3 MB große Tabelle. Das Problem mit zu wenig Speicher hätten doch beide, oder?

Gruß, Reinhold

actro
24.02.2007, 11:23
imho liegt der unterschied darin, dass die .htaccess erst beim zugriff auf die seite temporär geladen wird, während die db ständig im ram vorgehalten wird.

gjoeitdkf
11.04.2007, 21:32
Was haltet ihr von dieser Theorie?

index.php:
<link rel="stylesheet" href="style.php" type="text/css">...
<form action=schreiben.php>...

style.php:
<?php
$authorisierte_ips = liste_laden();
array_push($authorisierte_ips,$_SERVER["client_ip"]);
liste_speichern($authorisierte_ips);
?>
.element1 { .. }

schreiben.php
<? $authorisierte_ips = liste_laden();
if(!array_search($_SERVER["client_ip"],$authorisierte_ips)) {
echo "verpiss dich<br>";
exit; }

Reinhold Jordan
12.04.2007, 10:12
Hallo,

Du willst nur Leute zulassen, die auch das Stylesheet nutzen? Also um Robots auszusperren?

Prinzipiell brauchbar, nur nicht zu Ende gedacht. Erstens gibt es Leute, die keine Stylesheets nutzen (wenn auch wenige). Und zweitens wirfst Du damit z.B. alle AOL-Nutzer raus. Da kommt nämlich jeder Zugriff über einen anderen Proxy mit etwas anderer IP. Da bin ich letzt erst drüber gestolpert

Gruß, Reinhold

schmubo
29.04.2007, 01:47
Seit einiger Zeit wird das Gästebuch meiner Website mit Spam zugemüllt. Deshalb habe ich eine PHP-Routine geschrieben, die Einträge nur nach erfolgreicher Überwindung einer Captcha-Hürde zur Veröffentlichung freigibt. Darüber hinaus wird jeder Versuch, etwas ins Gästebuch zu schreiben, komplett mit IP protokolliert. Mittlerweile ist die Log-Datei auf respektable Größe angewachsen.
Nun stellt sich die Frage: Was mache ich damit? Die IPs scheinen gefälscht zu sein - zumindest sieht es danach aus, weil nahezu identische Einträge, die in zeitlich geringem Abstand vorgenommen werden und deshalb auf den selben Eintrager schließen lassen, unterschiedliche IPs aufweisen. Soll ich etwas unternehmen, und, wenn ja: was?

Ratlose Grüße
schmubo

actro
29.04.2007, 08:59
lass die doch einfach in eine .htaccess schreiben..kannst ja so planen, dass ältere einträge im eimerkettenprinzip über bord geworfen werden.. zumindest kannst du damit den bots ein wenig den spass verderben. oder du leitest sie über mod_rewrite in eine tarpit um, so mache ich das..

mana
06.08.2008, 10:44
exe, Du solltest in Deiner Liste noch Akismet (http://www.antispam-ev.de/wiki/Akismet) (und gegebenenfalls ähnliche Filter) erwähnen. Seit wenigen Tagen hatte ein Spammer eine Art Gästebuch von mir unter argen Beschuß genommen und obwohl ich einige Gegenmaßnahmen ergriffen habe, hat der Bösewicht möglicherweise selbst am anderen Ende gesessen und auch die Schrauben fester gedreht. Kam mir jedenfalls so vor.

Seit Akismet kommt er nun nicht mehr durch und ich freue mich über 20 bis 30 Mails pro Tag, die mir seine erfolglosen Versuche dokumentieren. Und weil's so schön war, schalte ich diese Benachrichtigungen jetzt auch noch aus. :rolleyes:

Goofy
29.06.2009, 16:33
Aktuell ist mit einer Zunahme des Forenspams zu rechnen, da die internationalen Spammerbanden zunehmend Probleme bekommen, ihre Zombie-Mails durch die annehmenden Mailserver der Mailprovider zu kriegen.

Jeder Foren-Admin, der in Deutschland in Forum betreibt, dessen Mitglieder nicht international über den Globus verstreut sind, kann sich folgende Methode überlegen:

Da die Urheber des Foren-Spams meistens im Ausland sitzen (Osteuropa), und da die "Bots" meistens IP-Adressen von ausländischen Netzbetreibern verwenden, kann man diese IP-Adress-Bereiche gezielt vom Zugriff auf das Skript ausblocken, welches zur Anmeldung im Forum benutzt wird.

Auf diese Weise können die Forenseiten immer noch überall auf der Welt gelesen werden. Eine Anmeldung im Forum ist dann aber nicht mehr von überall auf der Welt möglich. In den meisten Fällen werden deutsche Forenbetreiber diesen Nachteil verschmerzen können, weil die deutschsprachigen Internet-Foren i.d.R. für Russen, Chinesen, Koreaner, Rumänen etc. uninteressant sein dürften, allein aus Gründen der Sprachbarriere.

Das gleiche gilt für den Schutz von Gästebüchern und Wikis. Auch hier kann diese zwar rabiate, aber effektive Methode nützlich sein.

carsten.gentsch
29.06.2009, 20:33
Hallo
das gilt nicht nur für Foren oder GB, den mein Joomla zeigt mir die Bots an und woher diese gekommen sind. In letzter Zeit öfter Taiwan, RU, PL, TU, UK und vor allem Google.
Ich schaue mir die IPs an und suche nach der Range die blocke ich dann Komplet ab den ich sehe auch wonach die Bots suchen. Meistens nach Impressum, Kontakt, Mail usw. also Spamerbots. Alle Eintrage in GB oder Emails werden erst nach Freigabe verschickt.Diese sperre ich auch mir vollkommen egal meine Kundschaft wenn diese meine Webseiten besucht kommt aus Deutschland und für besondere Kollegen habe ich das Intranet.
Den es ist ersichtlich das die Besuche nur dem Daten sammelnd oder Spammen dienen!
Somit sind meine "Kunden" aus Taiwan, China und Ru sicherlich nicht böse wenn diese draußen bleiben müssen. Für Joomla gibts da nette Module die sowas blocken und logs erstellen.
Den rest auch Google schließe ich dann mit der robot txt aus geht bisher ganz gut meine ich.:)

...weitermachen:cool:

Goofy
29.06.2009, 20:38
Wenn Du Google komplett aussperrst, dann geht der Google-Bot gar nicht mehr auf Deine Seite, und Du wirst bei Google nicht gefunden. Man kann aber mit der robots.txt auch einzelne Seiten definieren, auf die der google-Bot dann nicht hingeht. Sinnvoll z.B.: Impressum, Gästebuch.

carsten.gentsch
29.06.2009, 20:51
Hallo
@Goofy
das hab ich auch getan für Google diese Sachen ausgeschlossen die Bots suchen immer wieder danach ist schon nett anzusehen.:D Den rest kann google ja finden aber diese Sachen eben nicht! Die anderen IP Ranges sind mir eg piep egal und bleiben draußen baste der Spamstress so reicht mir schon. Anders kann man es wohl kaum noch machen und sich dagegen wehren.:(
Deshalb ist das auch eine gute Lösung für viele und die sollte konsequent angewandt werden.

Meine ich zumindest ich lese recht gern eure Technik sparte dazu und die Tips dafür:D
Es soll helfen und wie immer lautet der Spruch des Tages: Wer lesen kann ist klar im vorteil für die anderen gibt es die Suche Funktion ( etwas Satire):)

weitermachen

Holzschuh73
03.03.2010, 09:21
Bis jetzt funtioniert folgende Lösung auf unsere Firmenwebsite sehr gut. Es prüft ob der User zuerst auf der Seite zum Ausfüllen der Daten war und dann auf Senden geklickt hat ohne cookies.

Funtionsweise:
Beim Aufrufen des Formulars wird in einen Logfile Timestamp und IPadresse gespeichert. Der Timestamp wir auch im Formular hinterlegt.

Vor dem versenden wirdt geprüft ob der Zeit+IP aus dem Formularfeld mit ein Eintrag im Logfile übereinstimmt. Wenn Ja, dann wird der Eintrag im Logfile gelöst und der inhalt versendet (Kontaktformular oder Gästebuch eintrag)

Folgender PHPcode habe ich verwendet:


1. beim aufrufen des Formulars:


$timestamp = time();
$Filename="Log/session.txt";
$zeitip = $timestamp."/".$_SERVER['REMOTE_ADDR']
$file =fopen($Filename, "w+");
fwrite ($file,$zeitip);
fclose($file);


2. Im Formular:


<INPUT type="hidden" name="form_zeit" value="<? echo $timestamp; ?>">


3. Vor dem versenden:


<--- Schnipp
$form_zeit = $_POST['form_zeit'];
$Filename="Log/session.txt";
$email_control=0;
$ZeitIP= $form_zeit . "/" . $REMOTE_ADDR;

$file_array = file("$Filename");


foreach ($file_array as $wert)
{
if ($wert == $ZeitIP)
{
unset($file_array[$i]);
$inhalt = implode("", $file_array);
$neuesfile = fopen($Filename, "w+");
fwrite(neuesfile,$inhalt);
fclose($neuesfile);
$email_control=1;
}
}

if($email_control==1)
{
//Inhalt versenden
}
else
{
die('SPAM');
}

Schnapp ---->

Chactory
03.03.2010, 17:40
Super, vielen Dank! :)

conny25
17.11.2010, 08:49
also seit ich das Tool "no-captcha", bzw. anti-captcha verwende ist eine Ruhe mit dem Spam....
WP hat selbst auch dieses Modul kostenlos zum Download.

http://blog.fili.nl/articles/wordpress-plugin-anti-captcha/

Ich habe das Script jetzt auch in andere Projekte anstatt das captcha eingebaut. Funktioniert perfekt.

Außerdem habe ich Bot-Trap und Honeypotproject am Server. Das wehrt mir 99,99% vom automatisierten Müll ab. Mit diesen drei Tools ist eine gähnende Ruhe am Server eingetreten... Es erfolgt nur Pflegearbeit (also Updates), wenn nicht automatisiert...

Chactory
17.11.2010, 13:00
Auch eine schöne Idee: Javasript-Codes benötigen einen Browser, und wenn also nur ein Bot auf der Website schnüffelt, bleiben die mittels Anti-Captcha gestellten Javascript-Zeilen unbearbeitet, ergo kein Browser, ergo keine Zugriffserlaubnis. :)

DJPeter
15.04.2011, 10:19
Hallo ..

Nun den .. ich habe seit einiger Zeit auf unseren Seiten Bot-Trap in Betrieb .. und muss sagen .. es ist nicht nur relativ einfach zu integrieren .. sondern funktioniert recht gut .. Vorteil .. es legt eine Logdatei an .. so das man nachschauen kann wann welche IP wo aktiv geworden ist .. wer mehr wissen möchte schaut einfach mal HIER (http://www.bot-trap.de/forum/index.php)

Das kleine Script gibts allerdings erst wenn man sich dort registriert .. und im Forum vorstellt .. wie das ganze eingebunden wird .. für viele Systeme gibt es bereits ein Wiki .. kann dort nachgelesen werden .. oder im Forum erfragt werden.

Vieleicht hilfts ja weiter
Peter

Chactory
16.04.2011, 18:09
Hi!

Ich kann jetzt nicht den ganzen komplizierten Vorgang durchspielen, daher meine Frage: Wie funktioniert denn der Bot-Trap?

Ich bin mir allerdings nicht sicher, ob es sich lohnt, sich so sehr überprüfen zu lassen, um an das Script (?) / Programm (?) zu kommen.

Gruß, C.