2018年4月15日日曜日

デジタル動画の基礎知識

前稿「デジタル静止画の基礎知識」はこちら。

前稿で書いたとおり、動画では、静止画を1秒あたり24枚~60枚を高速に表示することで、人間の目にとって動いている動画として認識させます。これはアナログの映画フィルムも同じ仕組みです。

基本的には動画を構成する静止画は、前稿で説明したものと同じですが、動画でだけ多用される設定として、ピクセルフォーマットピクセルアスペクト比というものがあります。

動画では通常RGBではなくYUV 420などのピクセルフォーマットを使います。色をRGB(赤緑青)ではなく、輝度(Y,明るさ)と色の信号(U,V)に分けて、人間の目が鈍感な色の信号を削減することで情報圧縮することが特徴です。YUV 420では、ピクセル4つにつき、輝度信号4つと色信号UV1つずつだけを記録します。

ピクセルアスペクト比は、一つ一つのピクセルの縦横の大きさを表します。パソコンでは、ピクセルは必ず正方形ですので、ピクセルアスペクト比は1:1となりますが、テレビやDVDでは10:11や40:33などの正方形ではないピクセルが使われます。

動画の中に含まれる静止画のことをフレーム(frame)と呼びます。一秒間に何枚の静止画(フレーム)が含まれるかということを、フレームレート(framerate)と呼びます。単位はframes per second (fps)です。

映画は伝統的に24fpsで撮影され、それが映画らしさを作っているとも言われますが、ちょっとなめらかさに欠けるようにも思います。パソコン用動画としては30fpsが良く選ばれてきましたが、最近ではYoutubeが60fps動画に対応して話題になりました。フレームレートが高いほど動画が美しく見えるかどうかについては、まだ定説はないようです。[1]

動画の最も重要な要素は、静止画の仕様すなわち解像度と色数に加えて、フレームレートの三つがあります。1920×1080ピクセル、YUV420 8bit、30fpsなどといった条件です。

本来であれば、この三つを定めれば良いはずなのですが、残念ながら動画にはもっとややこしい要素が無数にあります。それをこれから解説していきます。

動画の静止画を構成する方式には、インタレースという独特の方式があります。

これはテレビ放送で生まれた仕組みです。言葉で説明しにくいですが、1枚のフレームを細切りに分割して、それを1/60秒だけずれた2枚のフィールドという半分の解像度を持つ静止画に分割して配信します。

60iという方式では、1秒間に60枚の画像が表示されますが、そのうち交互に送信される1枚目と2枚目は縦に1ピクセルだけずれた画像になっています。

これはブラウン管には合った表示方式だったのですが、液晶ディスプレイやパソコン配信には非常に不向きです。インタレース形式の動画は大きなトラブルや画質低下の原因となりますので、現在は必ずインタレースではない形式(プログレッシブ形式)で動画を撮影することが必要です。

もしどうしてもインタレース形式が必要になる場合は、高fps(60fps等)のプログレッシブ形式の動画を撮影して、そこからインタレース形式に変換しましょう。この方式なら動画の画質をあまり落とすことなく、両方の形式の動画が作成できます。

逆にインタレース形式のDVD形式などの動画をPC用に変換した場合、どうしても画質が著しく低下してしまいます。

動画は、静止画と異なりデータ容量が膨大になります。24fpsでも、一秒の動画で24枚の静止画、1時間の動画ではなんと86400枚もの静止画を含むことになるからです。

膨大なデータ容量は、コンピュータ、記憶媒体、通信回線などに高い処理能力を要求します。そのため圧縮率や圧縮方法などについて、動画作成者が考えるべきことが無数にでてきます。それによって画質や扱いやすさが変わるからです。

データ圧縮をするときには、元のデータを同程度の画質でどれだけ小さいデータ容量に減らすことが出来るかが重要です。これを圧縮率と言います。

動画を作成する際には、以下の点が重要になってきます。

  • コーデック
  • エンコーダー
  • エンコード速度
  • ビットレート

コーデック(codec)は、圧縮方式です。どんなルールで圧縮するかが業界標準として決められています。これによって圧縮率が大きく変わりますし、どのプレーヤーで再生できるかが決まってきます。

現在最も広く使われているコーデックはH.264 (AVC)です。これはほぼ全てのインターネットブラウザ、パソコン、スマホなどで再生することができますので、広く使われています。2018年現在では圧縮率も高い方のコーデックです。次世代コーデックとしてはH.265 (HEVC)、VP9などがあり、現在はAV1というさらに新しい方式が開発中です。

エンコーダー(encoder)は、実際に圧縮を行う機器やソフトウェアのことです。動画の圧縮では、エンコードを実際に行う方法は各製品の自由裁量となっており、各製品によって圧縮率や画質は大幅に変わってきます。H.264ではx264というソフトウェアエンコーダーが最も良い性能だと言われています。

エンコード速度は、エンコードするのにどれだけ時間をかけるかということです。同じコーデック、同じエンコーダーを使っても、エンコード時間をかけるほど圧縮率は向上する傾向にあります。

ビットレート(bitrate)は、動画の時間あたりのデータ容量です。通常Kbps (1000bit毎秒)かMbps(百万bit毎秒)の単位で表現されます。他の条件が同じであれば、ビットレートが高いほど画質が高くなる傾向にあります。

1Mbpsの動画は1時間で450MB(megabyte = 100万バイト)となります。10Mbpsなら4.5GB(gigabyte = 1000MB)となります。

これらの設定をどのように決めるかが、動画制作者や配信者の腕の見せ所です。次からの記事でそれらについて細かく説明していこうと思います。

補足ですが、mp4wmvなどというファイル形式のことをコンテナフォーマットと言います。とりあえず通常配信する場合はmp4で問題ないでしょう。

あ、音声に関しても説明が必要でしたね。これもそのうち解説しようと思いますが、通常配信する場合にはAAC 128kbpsまたは256kbpsにしておけば問題ないでしょう。

注:

  1. フレームレートによる動画の見え方の違いについては動画用カメラを作っているRED社の解説ページが分かりやすいのでご覧ください。

0 件のコメント:

コメントを投稿