note バックアップ取得への苦難
我々クリエーターにとって
大事な資産である記事に関し
バックアップ運用を検討されたことは
ありますでしょうか?
私はバックアップを取得しておらず、
有事の際に備えバックアップを
取得しようとトライしてみました。
その結果、、、、
未だバックアップをとれていません・・・
手ごわすぎです。
本日は皆さんが私のように
数時間も時間を浪費せずにすむよう、
どのようにトライして、
どのようにできなかったか
纏めてみます。
< CompleteGetterの場合 >
ホームページをローカル保存するときに
使われる有名フリーソフトの一つ、
CompleteGetterを使ってみました。
よくこのソフトを使っていましたので
これでサクッとできるだろうと、
思っていました。
ですが、noteの場合はこちらは、
ダウンロードしたいサイトのURLを
正しく入力しているのですが、
「URLがただしくありません」
とのエラーメッセージが表記され
バックアップができません。。。
「 https 」スタートだったものを
「 http 」に直してみると、
バックアップは走るものの、
全然保存してくれませんでした。
< HTTackの場合 >
こちらもブログ・ホームページの
ローカル保存の有名どころの
フリーソフトです。
こちらは、サイトのダウンロードを
開始するとダウンロードは始まるのですが、
タチサラのサイト部分だけを
保存するのではなく、
タチサラの上位階層まで行き、
非常に沢山の記事をダウンロード
しようとします。
タチサラのメインページからの
下位階層の私の記事だけをダウンロード
できればいいのですが、
色々と設定を変えてみましたが、
どうしてもだめでした。
このアプリは初めての利用だったので
そういう仕様なのかと思いましたが、
ほかのサイトで同様に
ダウンロードしてみたところ
思い通りに動作したので、
これ以上向き合うのはやめました。。。
< SiteSuckerの場合 >
上に述べた二つのアプリは、
Windowsだったので、
今度はMacでトライしてみました。
Macでの有名なホームページの
ダウンロードソフトは、
調べてみるとSiteSuckerという
フリーソフトを発見しました。
これで解決できればと思いましたが、
結果は「HTTrack」と同じで、
下位階層の保存だけではなく、
上位階層の保存まで保存しようとして、
目的のタチサラの記事だけを
保存することはできませんでした。
という形で、昨日に続き
本日もnoteバックアップ大作戦を
試みましたが失敗に終わってます。
私の知識不足によってただ
バックアップが取れていない
だけかもしれませんが、
この二日間でわかったことは、
以下になります。
<noteのバックアップに関して>
1.noteのバックアップは
一筋縄ではいかない!
2.noteのプラットフォームを信じ
バックアップを取らない
3.毎回記事投稿するときに
個別に一つ一つの記事を
バックアップする
もしどなたか、
noteのバックアップ簡単にできるよ!
という方法をご存知の方、
アドバイス頂けますと幸いです。
昨日に引き続き本日も、
noteバックアップ談義に
お付き合いいただき
ありがとうございました。
サポート、スキ、フォロー、一つでもしていただけると今後の活動の励みになります!