Seite 2 von 6 ErsteErste 1234 ... LetzteLetzte
Ergebnis 11 bis 20 von 60

Thema: Absicherungsmaßnahmen für Gästebücher, Foren, Weblogs, ...

  1. #11
    Neues Mitglied
    Registriert seit
    03.05.2006
    Beiträge
    5

    Standard IP-Adressen filtern

    @Exe: IP-Adressen Filterung: Jein.

    Ich dokumentiere momentan von jedem GB-Besucher die IP-Adresse. Sind sehr viele unterschiedliche IP-Adressen .... aber auch einige, die sich immer wiederholen und mit Spam versuchen.

    Nach meiner Meinung merken die, dass Du einen Block auf die IP machst, dann nehmen sie eben die nächste. .... das schaffen die Bots immerhin ca. 20 - 30 Mal in der Minute.

    Ich denke eh, dass das ne gefakete IP-Adresse ist, die die benutzen.

    Was sich als ziemlich wirksam erwiesen hat, ist die Filterung auf ICQ-Adressen ..... das sind bisher immer die selben.

    Werd mir wahrscheins so ne Nummer einfallen lassen, dass wenn meine Prüfroutinen greifen, werde ich mir den Eintrag mit allen Daten zumailen lassen und damit der Bot zufrieden ist und die Bomardements an Versuchen aufhören, werde ich ihm seine Eingaben einfach ausgeben, aber nicht in der DB speichern.

    Gaukelt er mir seine IP oder sonst was vor gaukle ich ihm halt seinen Eintrag vor und gut ist.

    Geht halt mal ein zu akzeptierender Eintrag durch die Lappen bekomme ich ihn zugemailt und füge ihn dann manuell ein, bzw lasse ihn duch den GB-User eintragen.

    Habe all meinen GB-Usern ne neue ID für ihre GB zugeteilt, meine Anwender haben den Link geändert. .... die Bots versuchens alle noch auf die alte ID.

    Habe im Moment in all meinen aktiven GBs vor Spam Ruhe.
    Von daher bin ich mit meiner Lösung im Moment schon sehr zufrieden, werde aber noch weiter ausbauen, da diese *Piep*keine Ruhe geben werden.

    Gruß zum Sonntag

    Günni

  2. #12
    Mitglied
    Registriert seit
    15.01.2006
    Beiträge
    388

    Standard

    Zitat Zitat von Guenther Weinerth
    Ich denke eh, dass das ne gefakete IP-Adresse ist, die die benutzen.

    ...

    Gaukelt er mir seine IP oder sonst was vor ...
    IP-Adressen die bei TCP verwendet werden, lassen sich nicht faken, der Grund liegt im Verbindungsaufbau. Und das HTTP-Protokol basiert auf TCP.

    UDP kann gefakt werden, oder das erste Paket bei einem TCP-Verbindungsaufbau. UDP ist für HTTP irrelevant und wenn bei TCP das erste Paket gefakt ist, dann wäre damit maximal ein DDOS-Angriff, aber Daten werden da nicht übertragen.

    Nachtrag: Der Kerl könnte über einen anonymen Proxy gehen, dann siehst du die Adresse des Proxy und nicht des Kerls, aber die IP-Adresse ist immer noch eine existierende.

  3. #13
    BOFH Avatar von exe
    Registriert seit
    17.07.2005
    Ort
    Serverraum
    Beiträge
    5.936

    Standard

    Verdammt der Vorturner war wieder schneller und jetzt wollte ich doch mit meinem TCP/IP-Wissen prahlen.

    Eine Filterung gegen IP-Listen von offenen Proxys ist sicher auch nicht die schlechteste Idee.
    Geändert von exe (14.05.2006 um 18:30 Uhr)
    Dieser Beitrag kann Spuren von Ironie und billiger Polemik enthalten. Die Schöpfungshöhe ist technisch bedingt.

    Wir müssen die Religion des anderen respektieren, aber nur in dem Sinn und dem Umfang, wie wir auch seine Theorie respektieren, wonach seine Frau hübsch und seine Kinder klug sind.
    Richard Dawkins

  4. #14
    Mitglied Avatar von SpamRam
    Registriert seit
    11.09.2005
    Beiträge
    910

    Standard

    Die monatlich erscheinende "Internet PROFESSIONELL" Ausgabe 6/06 beschreibt in einem 4-seitigen Artikel unter dem Titel "Spam abschießen" wie man "Interaktive Websites vor Spammern schützen" kann.

    Auf der Webseite www. internet-pro.de wird auf den Artikel hingewiesen.
    Weblog-Spammer ohne Chance
    An Stelle eines Inhaltsfilters prüft hier ein Skript mit verschiedenen Tricks, ob ein Spammer Werbung und Links einmogeln will.
    Evtl. kann man den Artikel als "Leseprobe" runterladen.

    Der Artikel beschreibt detailliert und mit Code-Beispielen, was man alles tun kann, um Spam im Gästebuch oder anderen interaktiven Seiten zu vermeiden/verhindern.

    Vielleicht auch für die Experten ganz lesenswert.

  5. #15
    Neues Mitglied
    Registriert seit
    06.03.2006
    Beiträge
    41

    Standard Flash sicherer?

    Ich möchte übrigens einmal anmerken, daß ich schon seit Jahren verschiedene Flash-basierte Gästebücher am laufen habe, von denen kein einziges jemals von Spam betroffen war und ist.

    Die Interaktion mit dem Server läuft dabei wie gewöhnlich über PHP und MySQL ab.

    Da die Spammer keine Chance haben so einfach an die Lokation des Skriptes und die Formular-Variablen heranzukommen (dies würde bedeuten, sie müßten den Flash Movie erst binär dekompilieren und dann noch komplex logisch untersuchen), können sie auch nicht so ohne weiteres Ihre Spamaktionen entfalten ...

    Außerdem ist HTMLcodierter Text in Flash ohnehin nur über sehr spezielle interne Methoden möglich...

    Hi hi hi ...

  6. #16
    Neues Mitglied
    Registriert seit
    06.03.2006
    Beiträge
    41

    Standard ...übrigens

    ...übrigens haben auch Suchmaschinen (aus gewissen Gründen) keine Chance an die Flash-basierten Gästebucheinträge heranzukommen.

    Ich finde auch, daß Suchmaschinen in Gästebüchern GENERELL nichts verloren haben. Das Problem mit dem Pageranking-Gerangel existiert überhaupt erst duch die blödinnige Tatsache, daß "Google Boots" unentwegt in solcherart privaten Bereichen der Webseitenbetreiber herumschnüffeln...

    Unterbindet Suchmaschinen Bots den Zugriff auf Eure Gästebücher und es sollte für die Spammer dann mit der Zeit so ziemlich uninteressant bei Euch werden ...

    Seriöse Suchmaschinen halten sich an die Einträge in der "robots.txt".

    Manchmal habe ich jedoch den Eindruck, daß es Google&Co geradezu darauf abgesehen haben all den illegalen Mist und Schwachsinns-Kommerz wie blöd zu ranken. Jedenfalls scheint da niemand wirklich daran interessiert zu sein, wenigstens die TOP Rankings wirksam nach gewissen Regeln zu "filtern"...

    Wir kennen das ja inzwischen schon alle: meistens stehen die "Warez" Links noch vor den eigentlichen Produktanbietern und so weiter...

  7. #17
    Mitglied Avatar von Chactory
    Registriert seit
    26.03.2006
    Ort
    Kiel (D)
    Beiträge
    910

    Standard

    1. Kann man vielleicht auch mit einem PHP-Script erkennen, ob ein Gästebuch- oder Forumeintrag Buchstabe für Buchstabe erfolgt oder eben mittels Bot rasend schnell erfolgt?
    2. Kann man anhand der Art des Zugriffs unterscheiden, ob ein Mensch oder ein Bot auf eine Seite zugreift? (Bin technisch nicht so versiert, daß ich dies mit fachausdrücken formulieren kann, aber ich könnte mir vorstellen, daß solche Unterschiede beim Zugriff bestehen.)
    3. Könnte man eine Art Spamwortfilter die Einträge bewerten lassen?

  8. #18
    Senior Mitglied Avatar von Stalker2002
    Registriert seit
    16.07.2005
    Ort
    Bei Nämberch
    Beiträge
    1.610

    Standard

    Zitat Zitat von Chactory
    1. Kann man vielleicht auch mit einem PHP-Script erkennen, ob ein Gästebuch- oder Forumeintrag Buchstabe für Buchstabe erfolgt oder eben mittels Bot rasend schnell erfolgt?
    Keylogger sind Böse[tm]!
    Wenn mir sowas auf einer Website begegnen sollte (Mein Virenscanner warnt mich dann hoffentlich), dann wäre meinerseits Breitseite-DeLuxe angesagt, aber aus allen Rohren...

    MfG
    L.
    Proud member of the OTF Einstein-Team.

  9. #19
    Neues Mitglied
    Registriert seit
    08.06.2006
    Beiträge
    5

    Standard

    ja, hallo erstmal

    erstmal ne kleine einleitung: dadurch, dass ich meinen kram alles selbst programmiere, hatte ich bisher ruhe vor den gb-spammern, das is aber nu vorbei. deshalb werd ich hier auch mal ein paar comments und vorschläge posten.
    nun denn, fangen wir an:
    Gute Dienste leisten hier in PHP die Funktionen "strip_tags()" und "htmlentities()".
    in diesem fall würde ich "oder" schreiben. wenn man, wie ich, html z.b. für code-beispielen zulassen will, muss man sich für eine variante entscheiden.
    ich würde einen quick-and-dirty wortfilter per regex vorher implementieren. das sieht dann so aus:
    Code:
    if (preg_match("/(cialis|propecia|xenical|tramadol|phentermine|baccarat)/i", $text)) {
        
        echo "Fehler: Verpiss dich, Spammer! For our english customers: go fuck yourself (or your mother, i'll leave that to you).");
        die();
    }
    wirkt bei den derzeitigen attacken wunderbar. ich logge das zusätzlich noch zur persönlichen befriedigung mit, und grad, wo ich dies hier schreibe, laufen "helga", "hillary", "bill" und konsorten vor ne wand ausserdem wird die spammer-ip für 24 stunden gesperrt, da dauerhafte blacklists meines erachtens nichts bringen.
    Fies! Oder unklar.
    Was ist mit Leuten, die aus Paranoia den Referrer gar nicht übertragen?
    die sollen in ihrem keller mit ihrem hut aus alufolie sitzen bleiben.
    mal im ernst, da es auch gefragt wurde, wozu sowas gut ist: der referrer wird z.B. dazu gabraucht, um trafficklau zu verhindern. z.b. kann ein bild nur dann angezeigt werden, wenn es von einer bestimmten website aufgerufen wurde. ich denke aber, dass man einen bot damit nur schlecht aufhalten kann. im prinzip muss man nur die url der hauptseite (lässt sich in den meissten fällen leicht ausrechnen) als fake-referrer mitschicken, und schon gehts wieder.
    Die GB-Seiten werden nach meiner Meinung das erste mal gefunden und händisch ausgefüllt.
    Das glaube ich eher nicht. zum einen, weil ich schon einträge hatte, wo die felder vertauscht oder unvollständig ausgefüllt waren, zum anderen, weil ich es selbst auch anders machen würde
    ich werds aber demnächst genau wissen, weil ich mir noch ne möglichkeit überlegt habe, spam abzuwehren, eine art "honeypot" methode:
    also, ich gehe davon aus, dass so ein bot das web (meinetwegen über google) eigenständig nach gästebüchern durchforstet. falls er eins findet durchsucht er den quelltext nach bekannten mustern, wie die eingabefelder heissen. also biete ich dem bot VOR dem wirklichen formular in einem versteckten layer ein formular an, welchem er kaum widerstehen kann:
    [html]
    <!-- honeypot -->
    <div id="hp" style="display:none">
    <form method="post" action="guestbook.php">
    <input type="text" name="name" size="30" >
    <input type="text" name="email" size="30" >
    <input type="text" name="homepage" size="30" >
    <textarea name="comment" cols="65" rows="5"></textarea>
    <input type="submit" name="Submit" value="Add">
    </form>
    </div>
    <!-- honeypot -->
    [/html]
    die datei "guestbook.php" macht natürlich nix, ausser nen erfolreichen "catch" zu loggen. das eigentlich formular hat eher kryptische bezeichnungen für die eingabefelder und ruft auch eine andere datei auf.
    ich hab keine ahnung, ob das funktioniert (ist erst seit heut in betrieb) oder schonmal versucht wurde, ABER: wenn mir einer in diese falle tappt weiss ich genau, dass da niemals jemand was von hand ausgefüllt hat, da otto-normal-surfer das formular halt nicht sehen kann.

    p.s.: FALLS das jemand schon versucht hat, und das war nix, bitte mal bescheid geben. dann muss ich mir was anders überlegen...
    Geändert von DocF (09.06.2006 um 02:58 Uhr)

  10. #20
    BOFH Avatar von exe
    Registriert seit
    17.07.2005
    Ort
    Serverraum
    Beiträge
    5.936

    Standard

    Ich finde die Idee mit dem "versteckten" Formular ganz nett. Bin mal gespann was dabei raus kommt, gib bitte Bescheid. Mittlerweile bin ich überzeugt davon, dass die meisten Bots einfach jedes Formular ausfüllen, welches ihnen unterkommt. Ich habe auf bestimmte Seiten meiner Homepage gehäufte Zugriffe, welche so real nie zustande gekommen sein können. Auf einer dieser Seite befindet sich nur ein Eingabefeld um Daten zu dekodieren. Ich würde mal vermuten, dass Spammys Bots (egal ob Werbebots oder solche die Mail-Forms sprengen wollen) mittlerweile jeden FORM-Tag mit ihrem Müll vollstopfen, ohne drauf zu achten was hinten rauskommt.

    Achja eines noch: Eine schöne Sache die in keinem Antispambot-Skript fehlen sollte ist natürlich das gute alte "teergrubing". Sprich man bremst den Bot ein, indem man erst mal nen sleep(20) macht, bevor die Fehlermeldung auftaucht.
    Dieser Beitrag kann Spuren von Ironie und billiger Polemik enthalten. Die Schöpfungshöhe ist technisch bedingt.

    Wir müssen die Religion des anderen respektieren, aber nur in dem Sinn und dem Umfang, wie wir auch seine Theorie respektieren, wonach seine Frau hübsch und seine Kinder klug sind.
    Richard Dawkins

Seite 2 von 6 ErsteErste 1234 ... LetzteLetzte

Lesezeichen

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Partnerlink:
REDDOXX Anti-Spam Lösungen