Bạn không chỉ muốn một bài viết hoặc một hình ảnh riêng lẻ, bạn muốntoàn thể trang mạng. Cách dễ nhất để hút tất cả là gì?
Phiên Hỏi & Đáp hôm nay đến với chúng tôi theo lịch sự của SuperUser - một phân khu của Stack Exchange, một nhóm các trang web Hỏi & Đáp do cộng đồng điều hành.
Hình ảnh có sẵn dưới dạng hình nền tại GoodFon.
Câu hỏi
Người đọc SuperUser Joe có một yêu cầu đơn giản:
How can I download all pages from a website?
Any platform is fine.
Mỗi trang, không có ngoại lệ. Joe đang làm nhiệm vụ.
Câu trả lời
Người đóng góp SuperUser Axxmasterr cung cấp đề xuất ứng dụng:
https://www.httrack.com/
HTTRACK works like a champ for copying the contents of an entire site. This tool can even grab the pieces needed to make a website with active code content work offline. I am amazed at the stuff it can replicate offline.
This program will do all you require of it.
Happy hunting!
Chúng ta có thể hồi tưởng lại HTTRACK một cách chân thành. Đó là một ứng dụng hoàn thiện để hoàn thành công việc. Điều gì về các nhà lưu trữ trên nền tảng không phải Windows? Một người đóng góp khác, Jonik, gợi ý một công cụ hoàn thiện và mạnh mẽ khác:
Wget is a classic command-line tool for this kind of task. It comes with most Unix/Linux systems, and you can get it for Windows too (newer 1.13.4 available here).
You’d do something like:
wget -r --no-parent https://site.com/songs/
Để biết thêm chi tiết, xem Hướng dẫn sử dụng Wget và các ví dụ của nó, hoặc xem xét các điều sau:
- https://linuxreviews.org/quicktips/wget/
- https://www.krazyworks.com/?p=591
Có cái gì để thêm vào lời giải thích? Âm thanh trong các ý kiến. Bạn muốn đọc thêm câu trả lời từ những người dùng Stack Exchange có hiểu biết công nghệ khác? Xem toàn bộ chuỗi thảo luận tại đây.