Jak mogę pobrać całą stronę internetową?
Jak mogę pobrać wszystkie strony z witryny?
Każda platforma jest w porządku.
HTTRACK działa jak mistrz kopiowania zawartości całej strony. To narzędzie może nawet chwycić elementy potrzebne do tego, aby strona z aktywnym kodem działała w trybie offline. Jestem zdumiony tym, co może odtworzyć offline.
Ten program zrobi wszystko, czego od niego wymagasz.
Happy hunting!
Wget to klasyczne narzędzie wiersza poleceń do tego typu zadań. Dostarczany jest z większością systemów Unix/Linux, i można go również uzyskać dla Windows . Na Macu, Homebrew jest najprostszym sposobem na zainstalowanie go (brew install wget
).
Zrobiłbyś coś w stylu:
wget -r --no-parent http://site.com/songs/
Po więcej szczegółów, zobacz Wget Manual i jego przykłady , lub e. g. te:
Powinieneś spojrzeć na ScrapBook , rozszerzenie Firefoxa. Ma on tryb głębokiego przechwytywania .
Internet Download Manager posiada narzędzie Site Grabber z wieloma opcjami - które pozwala na całkowite pobranie dowolnej strony internetowej, tak jak chcesz.
Możesz ustawić limit wielkości stron/plików do pobrania
Możesz ustawić liczbę stron oddziałów, które chcesz odwiedzić
Możesz zmienić sposób zachowania skryptów/popupów/duplikatów
Możesz określić domenę, tylko pod tą domeną zostaną pobrane wszystkie strony/pliki spełniające wymagane ustawienia
Linki mogą zostać przekonwertowane na linki offline do przeglądania
Masz szablony, które pozwalają wybrać powyższe ustawienia dla Ciebie
Oprogramowanie nie jest jednak darmowe - sprawdź, czy odpowiada Twoim potrzebom, skorzystaj z wersji testowej.
Podoba mi się Offline Explorer . Jest to shareware, ale jest bardzo dobry i łatwy w użyciu.
Zajmę się buforowaniem online, którego używają przeglądarki…
Zazwyczaj większość przeglądarek używa pamięci podręcznej do przechowywania plików pobieranych z witryny internetowej przez pewien czas, aby nie trzeba było ciągle pobierać statycznych obrazów i treści. W pewnych okolicznościach może to trochę przyspieszyć. Ogólnie rzecz biorąc, większość cache'ów przeglądarek jest ograniczona do stałego rozmiaru, a kiedy trafią na ten limit, usuną najstarsze pliki w cache'u.
ISP zazwyczaj posiadają serwery cache, które przechowują kopie powszechnie dostępnych stron internetowych, takich jak ESPN i CNN. Oszczędza im to kłopotów z trafieniem na te strony za każdym razem, gdy ktoś z ich sieci tam wchodzi. Może to oznaczać znaczne oszczędności w zakresie ilości zduplikowanych zapytań do zewnętrznych stron internetowych skierowanych do ISP.
WebZip jest również dobrym produktem.
Nie robiłem tego od wielu lat, ale jest jeszcze kilka zakładów użyteczności publicznej. Możesz spróbować Web Snake . Chyba używałem go lata temu. Przypomniałem sobie nazwisko od razu, kiedy przeczytałem twoje pytanie.
Zgadzam się ze Stecy. Proszę, nie wbijaj ich w stronę. Bardzo źle.
Spróbuj BackStreet Browser .
Jest to darmowa, wydajna przeglądarka offline. Jest to szybki, wielowątkowy program do pobierania i przeglądania stron internetowych. Wykonując wiele jednoczesnych żądań serwera, BackStreet Browser może szybko pobrać całą stronę internetową lub jej część, w tym HTML, grafikę, aplety Java, dźwięk i inne pliki definiowane przez użytkownika, a także zapisać wszystkie pliki na dysku twardym, albo w ich natywnym formacie, albo jako skompresowany plik ZIP i wyświetlić w trybie offline.
Teleport Pro jest kolejnym darmowym rozwiązaniem, które skopiuje wszystkie pliki z dowolnego miejsca docelowego (posiada również wersję płatną, która pozwoli na pobranie większej ilości stron zawartości).
DownThemAll ](https://addons.mozilla.org/en-US/firefox/addon/201) to dodatek do Firefoksa, który za pomocą jednego kliknięcia pobierze całą zawartość (na przykład pliki audio lub wideo) dla danej strony internetowej. Nie pobiera on całej strony, ale może to być coś w rodzaju tego, czego szukało pytanie.
Dla systemu Linux i OS X: Napisałem grab-site do archiwizacji całych stron internetowych do plików WARC . Te pliki WARC mogą być przeglądane lub rozpakowane. grab-site pozwala kontrolować, które adresy URL mają być pomijane za pomocą wyrażeń regularnych, a te mogą być zmieniane podczas pełzania. Posiada również rozbudowany zestaw domyślnych ustawień do ignorowania śmieciowych adresów URL.
Istnieje web dashboard do monitorowania indeksów, jak również dodatkowe opcje do pomijania zawartości wideo lub odpowiedzi ponad określony rozmiar.
While wget was already mentioned this resource and command line was so seamless I thought it deserved mention:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
See this code explained on explainshell
Doskonałe rozszerzenie zarówno dla Chrome jak i Firefoxa, które pobiera większość/wszystkie treści strony i przechowuje je bezpośrednio w pliku .html
.
Google Chrome Extension
Firefox Extension
Zauważyłem, że na stronie z galerią zdjęć, na której je przymierzyłem, zapisywał on miniatury, ale nie pełne zdjęcia. A może po prostu nie JavaScript do otwierania pełnych obrazów z miniaturek.
Ale, to działało lepiej niż wget, PDF, itp. Świetne proste rozwiązanie dla większości ludzi.
Możesz skorzystać z poniższych darmowych narzędzi online, które stworzą plik zip całej zawartości zawartej w tym url
Czcigodny * FreeDownloadManager.org ** posiada również tę funkcję.
Free Download Manager posiada ją w dwóch formach: Site Explorer i Site Spider :
Site Explorer Site Explorer umożliwia przeglądanie struktury folderów strony internetowej i łatwe pobieranie potrzebnych plików lub folderów. HTML Spider Możesz pobrać całe strony internetowe lub nawet całe strony internetowe za pomocą HTML Spider. Narzędzie można dostosować do pobierania tylko plików z określonymi rozszerzeniami.
Site Explorer przydaje się do sprawdzenia, które foldery należy dołączyć/wykluczyć przed próbą ściągnięcia całej strony - szczególnie gdy w witrynie znajduje się całe forum, którego nie chcemy na przykład pobierać.
ściągnij HTTracker to ściągnie strony internetowe bardzo proste kroki do wykonania.
link do ściągnięcia http://www.httrack.com/page/2/
video, które może pomóc https://www.youtube.com/watch?v=7IHIGf6lcL4
Firefox może to zrobić natywnie (co najmniej FF 42 może). Wystarczy użyć “Zapisz stronę”
Wierzę, że google chrome może to zrobić na urządzeniach stacjonarnych, wystarczy przejść do menu przeglądarki i kliknąć przycisk Zapisz stronę.
Zauważ również, że usługi takie jak kieszonkowe mogą w rzeczywistości nie zapisać strony internetowej, a tym samym są podatne na zgniliznę linków.
Na koniec zauważ, że kopiowanie zawartości strony internetowej może naruszać prawa autorskie, jeśli dotyczy.