maximaldurchsatz

Du bist Deutschland. Ich bin Frankreich.

Wie bereits im Artikel zum Archiv für große Daten geschrieben, betreibe ich einen Spiegelserver für Kali Linux. Viel tat sich bis vor kurzem nicht, die Auslastung lag bei circa 3,5 MBit/sec durchschnittlich. Das hat sich gestern um 11:30 Uhr CET geändert. Seitdem sieht die Auslastung des Mirrors wie folgt aus: Fast durchgängig werden 100 Mbit/sec […]

Bidirektionale IP-Benchmarks mit iperf durch NAT-Gateways

Um die Geschwindigkeit der Anbindung zwischen zwei Punkten im Internet zu messen wird der Benchmark iperf eingesetzt. Leider beinhaltet dieser in der Standardversion keine Möglichkeit als Client auch Daten zu empfangen und so nicht nur den Upload vom Client zum Server, sondern auch den Download vom Server zum Client zu messen. Matt Tierney stellt in […]

Große Datenbestände mit lftp synchronisieren

Im letzten Artikel zum File Transfer Protocol wurde die moderne Einrichtung eines FTP-Servers vorgestellt. Jetzt soll ein Verzeichnis des FTP-Servers mit einem lokalen Server synchronisiert werden. Besonders der Maximaldurchsatz soll dabei errreicht werden. Dazu bieten viele Windows FTP-Clients zwei Modi an. Segmentiert bedeutet, dass eine Datei in logische Abschnitte geteilt und mit mehreren Verbindungen heruntergeladen […]

rsync,ssh,tar und socat – Große Datenbestände kopieren

Manchmal muss es etwas schneller sein als sonst. Gerade wenn man mit einem zehn Jahre alten Datenbestand von einem Computer auf einen anderen umziehen möchte. Wie ist dabei der Maximaldurchsatz zu erreichen? Am Transfer großer Datenbestände sind in erster Linie zwei Komponenten zwangsweise beteiligt. Das Festplatten-Subsystem und das Netzwerk-Subsystem der zu synchronisierenden Computer. Standardlösung Da […]