🌐 用 `wget` 下载整个网站或特定目录 📁
互联网上的资源丰富多样,但有时我们需要将某些网页内容离线保存。这时,`wget` 就成了你的得力助手!它不仅能下载单个文件,还能批量抓取整个网站或特定目录。👀
首先,确保你已安装 `wget` 工具。如果未安装,可以通过包管理器快速搞定(如 Linux 的 `sudo apt install wget`)。接着,你可以使用以下命令下载整个网站:
```bash
wget --mirror --convert-links --adjust-extension --page-requisites --no-parent http://example.com
```
这条命令会递归抓取目标网站的所有页面,并自动修复链接,让你离线浏览毫无压力!⚡️
如果你只想下载某个特定目录,比如 `/downloads/`,只需稍作修改:
```bash
wget -r -np -nH --cut-dirs=1 -R "index.html" -P ./output http://example.com/downloads/
```
这段代码会精准地抓取指定目录下的所有内容,同时避免多余文件干扰。📦
无论是学习资料、教程页面还是项目文档,`wget` 都能轻松搞定!快试试吧,让你的网络资源触手可及!🚀
免责声明:本答案或内容为用户上传,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。 如遇侵权请及时联系本站删除。