Speed

Googleが新しい圧縮アルゴリズムZopfliをオープンソースで発表

次の記事

ビッグデータ分析の現場実践本がやっと出た–O’ReillyのBad Data Handbook

Volvo_Large_Asphalt_Compactors

Googleが今日(米国時間2/28)、オープンソースの新しい圧縮アルゴリズムZopfliローンチした。今の標準圧縮技術であるzlibライブラリに比べて5〜8%圧縮率が高いといわれ、また解凍アルゴリズムは今のWebブラウザが現用しているもので間に合うため、Webサーバがこれを採用すれば、データの伝送速度が上がり、Webをやや速くすることができるだろう。

このアルゴリズムはチューリッヒ在住のGoogle社員Lode Vandevenneが20%プロジェクト*として作ったもので、Deflateアルゴリズムの実装だ。それはZIPやgzipが使っているアルゴリズムで、画像ファイルのPNGにも使われている。出力(圧縮結果)はzlibと互換性があるが、圧縮を行うアルゴリズムがzlibとは異なり、より効率的だ。〔*: 20%プロジェクト, 会社の拘束時間の20%は好きなこと(研究開発)をしてよい、というGoogleの内規。〕

Vandevenneは今日の発表声明で、“この徹底的で容赦のない圧縮アルゴリズムは、エントロピーモデルの反復と最短経路アルゴリズムを駆使し、可能なすべてのデフレート表現のグラフ中にビットコストの低い経路を見つける”、と述べている。

ただし、高い圧縮率の代償は長い圧縮時間だ(解凍時間は同じ)。Vandevenneはこう書いている: “最大でzlibの2〜3倍のCPU時間を要するので、Webの静的コンテンツのように、一度圧縮したらそれを今後何度でも使える、というアプリケーションに向いている”。

画像クレジット: Volvo

[原文へ]
(翻訳:iwatani(a.k.a. hiwa))

“Googleが新しい圧縮アルゴリズムZopfliをオープンソースで発表” への3件のフィードバック

  1. ゲスト より:

    two to three orders of magnitude more than zlib at maximum quality を”2〜3倍”と訳すな馬鹿
    機械翻訳の方がまだましな翻訳するわ

  2. guest より:

    演算量2~3倍程度でトラフィック減らせるならCPUコア増やしてでも対応するですよ。
    数百とか数千倍オーダーだと物理的に増やすのは無理ですけどね。

コメントを残す

以下に詳細を記入するか、アイコンをクリックしてログインしてください。

WordPress.com ロゴ

WordPress.com アカウントを使ってコメントしています。 ログアウト / 変更 )

Twitter 画像

Twitter アカウントを使ってコメントしています。 ログアウト / 変更 )

Facebook の写真

Facebook アカウントを使ってコメントしています。 ログアウト / 変更 )

Google+ フォト

Google+ アカウントを使ってコメントしています。 ログアウト / 変更 )

%s と連携中