テストのために、wget コマンドを使ってサイトをダウロードしたいのですが、

一部ページに、location ヘッダーを使って別ドメインに飛ばしている部分があります
このため、wget コマンドが、他サイトのデータを取りに行ってしまうのを抑制したいのですが、何か良い方法はないでしょうか?
wget 以外のツールでも良いのですが、とりあえず、ドメイン内のファイルをリンク切れなくすべてダウンロードできるかどうか確認できれば良いのですが
リファラーを操作できるのか、wget しか見つけられなかったのです

回答の条件
  • URL必須
  • 1人2回まで
  • 登録:
  • 終了:2009/07/12 20:35:32
※ 有料アンケート・ポイント付き質問機能は2023年2月28日に終了しました。

ベストアンサー

id:pyopyopyo No.2

回答回数377ベストアンサー獲得回数98

ポイント35pt

wget のオプションに --max-redirect=1 を追加すれば、ご希望の動作になると思います。

http://www.gnu.org/software/wget/manual/wget.html

id:rikimaru

今回の要件だと、poyopoyo さんのオプションが簡単かもしれないです

こちらも、早速試してみたいと思います

ありがとうございました

2009/07/12 20:34:33

その他の回答1件)

id:kn1967 No.1

回答回数2915ベストアンサー獲得回数301

ポイント35pt

(例1)対処ドメインが1つだけならばホストをまたがないようにする。

-H を使わない。

(例2)複数のドメインが対象の場合は、ドメインを指定する。

wget -r -D対象とするドメイン1,対象とするドメイン2,・・・,対象とするドメインn ダウンロード開始URL

(例3)飛ばしたくないドメインを特定できる場合は、そのドメインを指定する。

--exclude-domains=飛ばないドメイン1,飛ばないドメイン2,・・・,飛ばないドメインn

※その他のオプションは適宜追加してください。

【 wget 】 ファイルをダウンロードする - Linuxコマンド集:ITpro

id:rikimaru

おお・・・とても詳しい!!

早速、試してみます

ありがとうございました

2009/07/12 20:33:08
id:pyopyopyo No.2

回答回数377ベストアンサー獲得回数98ここでベストアンサー

ポイント35pt

wget のオプションに --max-redirect=1 を追加すれば、ご希望の動作になると思います。

http://www.gnu.org/software/wget/manual/wget.html

id:rikimaru

今回の要件だと、poyopoyo さんのオプションが簡単かもしれないです

こちらも、早速試してみたいと思います

ありがとうございました

2009/07/12 20:34:33

コメントはまだありません

この質問への反応(ブックマークコメント)

「あの人に答えてほしい」「この質問はあの人が答えられそう」というときに、回答リクエストを送ってみてましょう。

これ以上回答リクエストを送信することはできません。制限について

回答リクエストを送信したユーザーはいません