Traversal Attack - An Illegal System Operation

Bei einer Traversal Attack wird versucht Daten in ein anderes Directory zu senden oder Zugriff auf ein anderes Directory zu erhalten. Direkt wird zuerst einmal einfach die URL manipuliert, entweder mit einem Crawler oder manuell.

Beispiel:

www.example.com/index.php?show=hier kann ein Wert verändert werden, wenn folgendes im PHP Skript steht:

$seite = $_GET["show"];

header('Location: $seite)

Es ist auch möglich normal einfach auszuprobieren oder eine Crawler Lücke auszunutzen!

Klicke hier um mehr zu einer Crawler-Lücke zu erfahren

In Einzelfällen kann es auch sein, dass die Daten über die HTTP Session übertragen werden oder per afterload erst später geladen werden. Die folgenden Tipps können dir helfen, solche Probleme zu vermeiden:

1.Sperre die INDEX Dateien in der Robots.txt:

Robots.txt sind Textdateien, die den Suchmaschinen sagen, welche Seiten sie anzeigen dürfen und welche nicht.

Zusätzlich enthalten diese Dateien auch eine Verlinkung auf das Sitemap!

(Neben an siehst du die Robots.txt von dieser Website!)

Im ersten Datensatz kann man einige Robots verbieten. (Das * steht für beliebige Zeichen!)

Steht hinter dem Wort Disallow kein Wert, können Suchmaschinen alle Seiten anzeigen.

Kommen wir nun zu den Befehlen:

Disallow: Sperrt die Seite und alle Unterseiten die unter diesem Ordner laufen. (Beispiel, die Seite /app/test/ ist auch gesperrt!)

Allow: Erlaubt Seiten die sich in einem gesperrten Ordner befinden. (Beispiel Die Seite /app/test/ ist gesperrt die Seite /app/download/ allerdings nicht!)

Disallow: /priv* Sperrt alle Seiten die im Pfad mit priv beginnen. (Ist auch mit Allow möglich: /priv* macht allerdings weniger sinn!)

Disallow: /*priv Sperrt alle Seiten, die priv enthalten. (Ist auch mit Allow möglich!)

Disallow /*.doc$ Sperrt alle Seiten die auf .doc enden. (PS: Ist auch mit allen anderen Dateiendungen und Allow möglich.)

(Das $ symbolisiert das Zeilenende!)

USER AGENTS:

Wenn du bei USER AGENTS ein * setzt, gelten die Regeln für alle Bots.

Möchtest du sie auf einzelne beschränken musst du folgendes schreiben:

User-agent:der betreffende bot

//Hier kannst du die Regeln hinschreiben.

Beispiel:

User-agent:google-news

Disallow: /news/

Allow:/*blog

Einige Beispiels User-agents:

google

google-news

2.Beachte bei IF Abfragen folgendes:

<?php
session_start();
 
 $hey = "True";
if (!isset($_SESSION['using'])) {
   $_SESSION['usomg'] = true;
} else {
   echo $hey;
}
?>
  • Source das PHP Script aus, so dass es nicht über den gleichen Source PATH verfügbar ist
  • Wie du sicherlich weist, werden XHR Datenabfragen für Javascript, vom User angefragt. Angreifer könnten die Source die beim USER ankommt verändern, so dass Anfragen verfälscht werden. Um diesen Weg zu schützen, solltest du die Kommunikation zwischen Ajax und deinem Dateisystem schützen, in dem zum Beispiel eine 2. Wege Authentifizierung durchgeführt wird. Des weiteren solltest, du Ajax Transaktionen in einem Schreibgeschützenordner verarbeiten und einem Viren Scan unterlaufen lassen.
XHR GET
XHR GET

3.Schütze die Betriebssystem Seite:

  • Sperre Wichtige Ordner mit Passwörtern
  • Deaktiviere wenn nicht benötigt die SchreibFunktion
  • Nutze mehrere Benutzer, denn dan gibt es eine KernelPanic wenn es trotzdem zu einem Zugriff kommen sollte.

ACHTUNG: Ein Angreifer kann über XHR auch Formulare fälschen.

4.Update dein Gerät regelmässig.

5.Bleib auf dem Laufenden und informiere dich regelmässig ob Sicherheitslücken vorhanden sind.



KONTAKT

Hinweis: Bitte die mit * gekennzeichneten Felder ausfüllen.


*: Bedeutet, dass KKTVCAM das Produkt/die Seite getestet hat und nun Affiliate der betreffenden Firma ist.

Made with ♥ in Bern (Switzerland)!

KKTVCAM ÜBERNIMMT KEINE HAFTUNG FÜR ALLE ANGABEN AUF DIESER SEITE.