勉強になりそうなサイトを見つけた。感謝。
参考
ダウンロード
1回目
読むのに時間がかかりそうなのでオフラインでも読めるようダウンロードしたい。
$ wget -r -l inf -w 1 --restrict-file-names=nocontrol http://プログラマが知るべき97のこと.com/
経過時間: 2h 53m 36s ダウンロード完了: 313 ファイル、98M バイトを 1m 58s で取得 (845 KB/s)
http://qiita.com/akryamada/items/afc113408a233fd914e5
http://www.atmarkit.co.jp/flinux/rensai/linuxtips/407dlweball.html
http://qiita.com/TakeshiNickOsanai/items/a6a09a83cc0622080728
引数 | 意味 |
---|---|
-r | ディレクトリを再帰的に捜査し取得する。 |
-l inf | ディレクトリの階層を無限にする。デフォルトは5階層までらしい。 |
-w 1 | 1回アクセスするのに1秒間のウェイトを置く。サーバ負荷対策。 |
–restrict-file-names=nocontrol | 文字化け対策。 |
Linuxではwget
コマンドを使うらしい。WindowsXPのときはダウンローダを使っていたが。
2回目
後で判明したが、画像がない。リンクが連動していない。以下のように-p
, -k
, を追加すると解決するらしい。
wget -r -l inf -w 1 -p -k --restrict-file-names=nocontrol http://プログラマが知るべき97のこと.com/
HTMLダウンロードは約3時間(175分)。
終了しました --2017-04-25 13:08:25-- 経過時間: 2h 54m 57s ダウンロード完了: 313 ファイル、98M バイトを 1m 10s で取得 (1.39 MB/s)
変換には2.7時間(165分(9896秒))。変換とはたぶん絶対パスを相対パスに変換する作業だろう。
216 個のファイルを 9896 秒で変換しました。
合計約6時間もかかった。約100MBしかないのに。
https://whiskers.nukos.kitchen/2014/09/24/wget.html
一覧
タイトルだけ見てみた。プロ目線なのだろうが素人の私ではついていけなさそうな雰囲気。でも、経験者が経験則から得た、開発の考え方や向き合い方などを知ることができそう。私はどうすれば快適にプログラミングで問題を解決していけるようになるのかヒントを得たい。
1項目ずつざっと読んで、適当に感想を書いたり調べたり考えたりしてみたい。
所感
次回以降に読む。