Sa ei taha ainult artiklit või üksikut pilti, mida sooviteterve veebisait. Mis on kõige lihtsam viis seda kõike sifoonida?
Tänane küsimuste ja vastuste seanss jõuab meile viisakalt SuperUserini - Stack Exchange'i ja kogukonnapõhiste Q & A veebisaitide rühmitusse.
Pilt saab GoodFoni taustapildiks.
Küsimus
SuperUseri lugeja Joe'il on lihtne taotlus:
How can I download all pages from a website?
Any platform is fine.
Iga leht, pole erandit. Joe on missioonil.
Vastus
SuperUseri toetaja Axxmasterr pakub rakenduse soovitust:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Me võime südamest pakkuda HTTRACK-i. See on küps taotlus, mis saab tööd teha. Mis on arhiivistid mitte-Windowsi platvormidel? Veel üks panustaja, Jonik, pakub välja veel ühe väljakujunenud ja võimsa tööriista:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
Lisateabe saamiseks vaadake Wget käsiraamatut ja selle näiteid või vaadake neid:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Kas teil on seletamiseks midagi lisada? Helistage kommentaarides. Kas soovite lugeda rohkem vastuseid teistelt tech-savvy Stack Exchange'i kasutajatelt? Tutvu täieliku arutelu teemaga siit.