Suche            
Mitglieder            
Kalender            
Hilfe            
Board-Regeln            
Wer ist online
ich suche ein brauchbares Programm, um Websiten komplett herunterladen zu können.
Wenn es Freeware wäre, umso lieber, da ich eigentlich nur zwei bestimmte Websites benötige und das nicht dauernd brauche. Beide Websites sind reine Html-Seiten (nix php, asp o.ä.).
Gruß
Laura
--
@--;--
Gut ist, was wir daraus machen !!!!!!!
Alles steht und fällt mit den Individuen, auch wenn wir nur als Gemeinschaft wirklich etwas bewegen können !
Ich hab sowas zwar schon ewig nicht mehr benutzt, weil ich seit über 5 Jahren ne DSL Flat habe, aber vorher unter ISDN hab ich den hier benutzt und fand das Prog wirklich gut:
Ich will nicht eine einzige Seite, sondern eine komplette Site mitsamt sämtlicher Unterverzeichnisse grabben. Wenn ich so speichere, wie du vorschlägst, habe ich für jede Seite einen Ordner, in dem zum Beispiel jedesmal das Logo, das normalerweise nur einmal da ist (unter img o.ä.) in jedem Ordner. Außerdem muß ich dann alles neu verlinken.
Die Arbeit wollte ich mir sparen.
--
@--;--
Gut ist, was wir daraus machen !!!!!!!
Alles steht und fällt mit den Individuen, auch wenn wir nur als Gemeinschaft wirklich etwas bewegen können !
Also im Internet Explorer bei \"Favoriten hinzufügen\" einfach den Punkt \"Offline verfügbar machen\" anklicken, und dann kommst Du in einen Dialog wo Du genauer angeben kannst was Du willst. z.B.: Linktiefe
Das habe ich gerade mal versucht, es geht nicht.
Der Grabber hat sich an der Site auch die Zähne ausgebissen.
Ich bekomme aber jetzt den FTP-Zugang, der bisherige Webmaster weiß nicht woran es liegt. Kann es sein , dass Strato das so macht ? (Es handelt sich um die HP meiner Schule.)
--
@--;--
Gut ist, was wir daraus machen !!!!!!!
Alles steht und fällt mit den Individuen, auch wenn wir nur als Gemeinschaft wirklich etwas bewegen können !