• Liebe User, bitte beachtet folgendes Thema: Was im Forum passiert, bleibt im Forum! Danke!
  • Hallo Gemeinde! Das Problem leidet zurzeit unter technischen Problemen. Wir sind da dran, aber das Zeitkontingent ist begrenzt. In der Zwischenzeit dürfte den meisten aufgefallen sein, dass das Erstellen von Posts funktioniert, auch wenn das Forum erstmal eine Fehlermeldung wirft. Um unseren Löschaufwand zu minimieren, bitten wir euch darum, nicht mehrmals auf 'Post Reply' zu klicken, da das zur Mehrfachposts führt. Grußworte.

Programm um webseiten KOMPLETT offline abzuspeichern

Boromir4

Guest
HAllo, ich suche ein Programm um webseiten KOMPLETT so abzuspeichern, dass ich diese später auch offline KOMPLETT anschaun kann, mit allen unterkategorien, auch wenn mal ein passwort verlangt wird.
Google hat irgendwie nur müll ausgespuckt...
 

Busta_inaktiv

Guest
vielleicht benutzt du ohnehin schon getright oder flashget, die können das imho beide (getright definitiv)
 

Boromir4

Guest
Irgendwie funzt das prog nicht so wies soll, er lädt haufen von kleinen dateien runter ohne den eigentlichen inhalt downzuloaden...
 
Mitglied seit
02.08.2002
Beiträge
2.781
Reaktionen
0
also flashget kann es nicht (zumindest in der version 1.4)

und natürlich läd er massenhaft einzelne dateien runter -.- eine webseite besteht im normalfall aus vielen dateien, vor allem wenn php genutzt wird, da das programm dann alle möglichen von php erzeugten seiten einzeln speichert...
 

Boromir4

Guest
Danke erstmal an alle, Doktor sein Tool funzt bisher am besten, nur krieg ich das mit dem namensfilter noch nicht so hin.
Ich will z.B. dass er nur dateien lädt, die das wort "technical" beinhalten.
ICh hab da bei filename einen custom filter erstellt mit meinem gewünschten namen, aber er lädt dennoch alles runter irgendwie oO
 
Oben