GNU/Linux >> Belajar Linux >  >> Linux

Mengapa “wget -r -e Robots=off Http://ccachicago.org” Tidak Bertindak Secara Rekursif?

Saya mencoba mengunduh http://ccachicago.org . secara rekursif , dan saya mendapatkan tepat satu file, root index.html , diunduh.

Saya telah melihat Unduh secara rekursif dengan wget dan mulai menggunakan -e robots=off yang direkomendasikan , tetapi masih berperilaku sama.

Caranya, dengan wget atau alat lain, dapatkah saya mengunduh salinan situs?

Jawaban yang Diterima:

Anda bertanya wget untuk melakukan rekursif unduh http://ccachicago.org , tetapi URL ini tidak menyediakan konten langsung apa pun. alih-alih itu hanya mengarahkan ulang ke http://www.ccachicago.org (yang belum Anda beri tahu wget untuk mengambil secara rekursif)..

jika Anda memberi tahu wget untuk mengunduh URL yang benar, ini akan berfungsi:

wget -r -e robots=off http://www....

Linux
  1. Bagaimana Linux Menangani Beberapa Pemisah Jalur Berturut-turut (/home////username///file)?

  2. Bash =~ Regex Dan Https://regex101.com/?

  3. Debian – Memindahkan /var, /home Untuk Memisahkan Partisi?

  1. “tidak dapat Membuat Direktori Cache /home//.composer/cache/repo/https—packagist.org/, Atau Direktori Tidak Dapat Ditulis. Melanjutkan Tanpa Cache”?

  2. Mengapa find -exec mv {} ./target/ + tidak berfungsi?

  3. Instal binari ke /bin, /sbin, /usr/bin dan /usr/sbin, interaksi dengan --prefix dan DESTDIR

  1. Direktori statis http tidak dilayani

  2. Kapan saya harus menggunakan /dev/shm/ dan kapan saya harus menggunakan /tmp/?

  3. Mengapa < atau > diperlukan untuk menggunakan /dev/tcp