記事表示
私はPCの液晶モニタとして、Dellの g2210t を長いこと使っています。
確か、ジャンク屋で1000円だったはず(笑)
それの解像度がFullHD、つまり1920x1080だとずっと思っていたのですが、先日、あることに気づいてしまいました。
普段デスクトップPCに繋いであるHDMIケーブルをRaspberry Piに差し替えました。久しぶりにセットアップしてやろうと思ったのですよ。そして解像度を合わせようと設定に入ったところ、
プルダウンメニューに1920x1080 という項目がないんですね。
よくよく考えてみれば、このモニターがFullHDであるなんて根拠はどこにもなかったわけです。
型番で検索したところ、 1680x1050 でした…
ところで、この 1680x1050 という解像度のアスペクト比は 16:10です。
最近のモニタはよっぽど、 1920x1080 などの 16:9 ですよね。昔はこのほかにも、 1920x1200 などの16:10モニタは多かったように思います。
しかしながら、私はこの 16:10 というアスペクト比を結構良いと思うんですよね。解像度を間違えていてなんですが…
「16:10 ? 聞いたことない。気持ち悪いアスペクト比だな。」と思ったそこのあなた。この比について、少し考えてみようじゃないですか。
16 : 10
後項を2に直してみましょう。
3.2 : 2
察しのいい方はお気付きでしょう。
これ、黄金比です。
(正確には、 1+√5 : 2 ≒ 3.236 : 2 = 16 : 9.89です。)
…パルテノン神殿にピラミッド、身近な物ではクレジットカードや名刺にまで使われているこの素晴らしい比のモニタを、皆使わない理由があろうか!
ではでは。