2009-07-28 13:32:02 +0000 2009-07-28 13:32:02 +0000
362
362

Jak mogę pobrać całą stronę internetową?

Jak mogę pobrać wszystkie strony z witryny?

Każda platforma jest w porządku.

Odpowiedzi (20)

347
347
347
2009-07-28 13:55:39 +0000

HTTRACK działa jak mistrz kopiowania zawartości całej strony. To narzędzie może nawet chwycić elementy potrzebne do tego, aby strona z aktywnym kodem działała w trybie offline. Jestem zdumiony tym, co może odtworzyć offline.

Ten program zrobi wszystko, czego od niego wymagasz.

Happy hunting!

282
282
282
2009-07-28 14:05:25 +0000

Wget to klasyczne narzędzie wiersza poleceń do tego typu zadań. Dostarczany jest z większością systemów Unix/Linux, i można go również uzyskać dla Windows . Na Macu, Homebrew jest najprostszym sposobem na zainstalowanie go (brew install wget).

Zrobiłbyś coś w stylu:

wget -r --no-parent http://site.com/songs/

Po więcej szczegółów, zobacz Wget Manual i jego przykłady , lub e. g. te:

8
8
8
2009-09-16 22:12:13 +0000

Powinieneś spojrzeć na ScrapBook , rozszerzenie Firefoxa. Ma on tryb głębokiego przechwytywania .

8
8
8
2009-09-16 21:56:24 +0000

Internet Download Manager posiada narzędzie Site Grabber z wieloma opcjami - które pozwala na całkowite pobranie dowolnej strony internetowej, tak jak chcesz.

  1. Możesz ustawić limit wielkości stron/plików do pobrania

  2. Możesz ustawić liczbę stron oddziałów, które chcesz odwiedzić

  3. Możesz zmienić sposób zachowania skryptów/popupów/duplikatów

  4. Możesz określić domenę, tylko pod tą domeną zostaną pobrane wszystkie strony/pliki spełniające wymagane ustawienia

  5. Linki mogą zostać przekonwertowane na linki offline do przeglądania

  6. Masz szablony, które pozwalają wybrać powyższe ustawienia dla Ciebie

Oprogramowanie nie jest jednak darmowe - sprawdź, czy odpowiada Twoim potrzebom, skorzystaj z wersji testowej.

7
7
7
2009-09-17 11:42:49 +0000
5
5
5
2009-09-17 02:08:03 +0000

Podoba mi się Offline Explorer . Jest to shareware, ale jest bardzo dobry i łatwy w użyciu.

5
5
5
2009-07-28 14:03:11 +0000

Zajmę się buforowaniem online, którego używają przeglądarki…

Zazwyczaj większość przeglądarek używa pamięci podręcznej do przechowywania plików pobieranych z witryny internetowej przez pewien czas, aby nie trzeba było ciągle pobierać statycznych obrazów i treści. W pewnych okolicznościach może to trochę przyspieszyć. Ogólnie rzecz biorąc, większość cache'ów przeglądarek jest ograniczona do stałego rozmiaru, a kiedy trafią na ten limit, usuną najstarsze pliki w cache'u.

ISP zazwyczaj posiadają serwery cache, które przechowują kopie powszechnie dostępnych stron internetowych, takich jak ESPN i CNN. Oszczędza im to kłopotów z trafieniem na te strony za każdym razem, gdy ktoś z ich sieci tam wchodzi. Może to oznaczać znaczne oszczędności w zakresie ilości zduplikowanych zapytań do zewnętrznych stron internetowych skierowanych do ISP.

4
4
4
2010-02-26 01:26:42 +0000

WebZip jest również dobrym produktem.

4
4
4
2009-07-28 23:23:28 +0000

Nie robiłem tego od wielu lat, ale jest jeszcze kilka zakładów użyteczności publicznej. Możesz spróbować Web Snake . Chyba używałem go lata temu. Przypomniałem sobie nazwisko od razu, kiedy przeczytałem twoje pytanie.

Zgadzam się ze Stecy. Proszę, nie wbijaj ich w stronę. Bardzo źle.

3
3
3
2009-10-14 11:41:36 +0000

Spróbuj BackStreet Browser .

Jest to darmowa, wydajna przeglądarka offline. Jest to szybki, wielowątkowy program do pobierania i przeglądania stron internetowych. Wykonując wiele jednoczesnych żądań serwera, BackStreet Browser może szybko pobrać całą stronę internetową lub jej część, w tym HTML, grafikę, aplety Java, dźwięk i inne pliki definiowane przez użytkownika, a także zapisać wszystkie pliki na dysku twardym, albo w ich natywnym formacie, albo jako skompresowany plik ZIP i wyświetlić w trybie offline.

3
3
3
2013-03-21 17:14:16 +0000

Teleport Pro jest kolejnym darmowym rozwiązaniem, które skopiuje wszystkie pliki z dowolnego miejsca docelowego (posiada również wersję płatną, która pozwoli na pobranie większej ilości stron zawartości).

3
3
3
2009-09-16 22:17:23 +0000

DownThemAll ](https://addons.mozilla.org/en-US/firefox/addon/201) to dodatek do Firefoksa, który za pomocą jednego kliknięcia pobierze całą zawartość (na przykład pliki audio lub wideo) dla danej strony internetowej. Nie pobiera on całej strony, ale może to być coś w rodzaju tego, czego szukało pytanie.

3
3
3
2015-09-18 01:41:23 +0000

Dla systemu Linux i OS X: Napisałem grab-site do archiwizacji całych stron internetowych do plików WARC . Te pliki WARC mogą być przeglądane lub rozpakowane. grab-site pozwala kontrolować, które adresy URL mają być pomijane za pomocą wyrażeń regularnych, a te mogą być zmieniane podczas pełzania. Posiada również rozbudowany zestaw domyślnych ustawień do ignorowania śmieciowych adresów URL.

Istnieje web dashboard do monitorowania indeksów, jak również dodatkowe opcje do pomijania zawartości wideo lub odpowiedzi ponad określony rozmiar.

1
1
1
2017-11-03 18:13:37 +0000

Power wget

While wget was already mentioned this resource and command line was so seamless I thought it deserved mention:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/ See this code explained on explainshell

0
0
0
2019-10-14 14:14:05 +0000

Save Page WE

Doskonałe rozszerzenie zarówno dla Chrome jak i Firefoxa, które pobiera większość/wszystkie treści strony i przechowuje je bezpośrednio w pliku .html. Google Chrome Extension Firefox Extension

Zauważyłem, że na stronie z galerią zdjęć, na której je przymierzyłem, zapisywał on miniatury, ale nie pełne zdjęcia. A może po prostu nie JavaScript do otwierania pełnych obrazów z miniaturek.

Ale, to działało lepiej niż wget, PDF, itp. Świetne proste rozwiązanie dla większości ludzi.

0
0
0
2019-11-11 16:33:26 +0000

Możesz skorzystać z poniższych darmowych narzędzi online, które stworzą plik zip całej zawartości zawartej w tym url

0
0
0
2015-09-27 08:49:33 +0000

Czcigodny * FreeDownloadManager.org ** posiada również tę funkcję.

Free Download Manager posiada ją w dwóch formach: Site Explorer i Site Spider :

Site Explorer Site Explorer umożliwia przeglądanie struktury folderów strony internetowej i łatwe pobieranie potrzebnych plików lub folderów. HTML Spider Możesz pobrać całe strony internetowe lub nawet całe strony internetowe za pomocą HTML Spider. Narzędzie można dostosować do pobierania tylko plików z określonymi rozszerzeniami.

Site Explorer przydaje się do sprawdzenia, które foldery należy dołączyć/wykluczyć przed próbą ściągnięcia całej strony - szczególnie gdy w witrynie znajduje się całe forum, którego nie chcemy na przykład pobierać.

-1
-1
-1
2015-09-21 16:02:12 +0000

ściągnij HTTracker to ściągnie strony internetowe bardzo proste kroki do wykonania.

link do ściągnięcia http://www.httrack.com/page/2/

video, które może pomóc https://www.youtube.com/watch?v=7IHIGf6lcL4

-3
-3
-3
2015-12-02 13:59:03 +0000
-4
-4
-4
2015-05-16 18:05:51 +0000

Wierzę, że google chrome może to zrobić na urządzeniach stacjonarnych, wystarczy przejść do menu przeglądarki i kliknąć przycisk Zapisz stronę.

Zauważ również, że usługi takie jak kieszonkowe mogą w rzeczywistości nie zapisać strony internetowej, a tym samym są podatne na zgniliznę linków.

Na koniec zauważ, że kopiowanie zawartości strony internetowej może naruszać prawa autorskie, jeśli dotyczy.