wgetでWebデータの取得
ドメイン管理およびサーバーの引越を行いました。
中間業者が管理しているWebで、SFTPの接続情報が紛失してしまい、FTPでのコンテンツのバックアップが出来ませんでした。
Webのデータを全てダウンロードする方法は幾つかあるのですが、このwgetが一番便利で的確でした。
Linuxがないと使えませんが。
Windowsでも同様のコマンド(Winget?)はあるようですが、どうも用途が違うようでした。
Rocky Linuxのマシンで以下のようなコマンドで実行しました。
xxx.comはデータを取得したいWebのURLです。
# wget --mirror --convert-links --wait=2 xxx.com
実行したディレクトリ以下に
xxx.com
というディレクトリが作成され、そこにWeb上にあるのと同じ階層でファイルがダウンロードされます。ファイル名などもサーバー上と同じ名前でした。
今回はシンプルなサイトでしたので、簡単にダウンロードできました。
wgetは細かくオプション指定もできるので、Windowsでフリーソフトなどを使うよりも安定して動作すると思います。