今やってたiPhoneのCM(つぶやきで済まそうと思ったら出来なかったのでこちらに書きましたよ)
今テレビでiPhoneのCMやってたけど、手ブレ防止機能とか、ブレるなとか・・・・何がおかしいって高級デジカメの機能を上乗せしている点だよ。
ただの電話機になぜ高度な撮影機能が必要?映画でも撮るのか?
前に書いたけど、もうiPhoneはネタ切れなんだよ。
ベジータのM字ハゲみたいなフレームもパンチ穴フレームもダサかったけど、今回の機能は絶対必要無いよね?
だってスマホって映画撮影するのに適した形状じゃ無いもの。
あの形はタッチデバイスとして最適であって、映画撮影のためのデザインじゃ無い。
それなのに、高級カメラの機能を無理やり搭載してきてさ・・・・
さてどれだけ無駄なデータを消費しているか?
下記の図で示す。
グレーの範囲はブレ補正のための余剰撮影範囲。
これだけ広範囲な範囲で撮っていて実際使われるのは白い範囲のみ。
全てが4K〜8K並の高解像度で撮っていれば、真ん中の白の範囲だけ切り取っても劣化は感じない。実際の映像はHD程度。
逆に言えばHD程度の解像度で済むのに手ブレ補正のために4K〜8K並の無駄データを必要とするのだ。
下記に手ブレした映像がどうやって補正されるのか示す。
この図では手ブレが酷すぎて被写体がフレームから外れている。
※実際にはフレーム外も撮影されているのだが、iPhoneのプレビュー画面ではフレーム外の映像はユーザーに見せないはずだ。
図の灰色の範囲が上図の灰色である。
グレーの範囲が実撮影のフレームからはみ出して(撮影されていないフレーム外の空白部分)欠けているのが判るだろう。
でも最終的にトリミングされて白の範囲しか見えないので何の問題もない。
こういうことは動画編集している人ならCM見ただけで理解するけど、普通ならこれだけ無駄な映像データを要するとは夢にも思わないだろう(グレーの部分が全て使われない)。
つまりね。
どんどんどんどん、手間をかけずにGPUとメモリに負担を掛ける方向に進化しているってこと。
無駄データをね・・・・どんどんどんどん増やして、高機能って言っても実際にはほとんど差が見えないんだよ。
写真ひとつにしても2000px〜3000pxにもなってるけど、人間の肉眼では300dpi程度しか判別できないからね?
もう肉眼が判別できる解像度を超えているし、ルーペか顕微鏡使うのかって?どこで使うんだ?偽札でも判別するのか?
デフォが印刷並の高解像度になると今までのスマホではストレージもメモリもすぐに逝ってしまう。
普通の人は、性能の劣化だと思うけどそれは違う。
実際は必要無い過剰なデータ量を必要とするようなフォーマットをiOSのデフォとしており、そうなると前のスマホだと処理できなくなるんだよね。
そーやって新しい死ぬほど高機能なCPUとGPUと莫大なメモリとストレージを搭載していないと動かないうようにしているんだよ・・・・・
もうそろそろ気づいてほしいな・・・・・
この馬鹿さ加減に。