2025 .01.31
×
[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。
2010 .03.25
公開してから少し時間がたつけど、恵比寿の美容室「髪工房PaPa」様のPV作成を担当させて頂いた。
お店は恵比寿駅から数分の好立地で、映像にもあるようにアンティークで統一された内装がとてもお洒落。スタッフの皆様もとてもフレンドリーなお店なので、ご興味を持たれた方は是非一度お店のサイトもご覧ください。
さて、実はこのムービー、Panasonicの動画一眼「GH1」で撮影している。お店の皆様にご協力頂きながらスタッフは私1人という最小規模の撮影体制だったが、普通のビデオカメラ撮影とは一味違う面白い画を撮る事ができた。
今回の一番のポイントは、本格的な「オーバークランク」(高速度撮影によるスローモーション)を多用できた事。通常のビデオカメラは秒間訳30コマで撮影しており、これをスロー再生するとコマとコマの間が無くなるためカクカクした動きになる。
しかしGH1は、1280x720ピクセル(いわゆる720p)の解像度なら秒間60コマの撮影が可能。このPVでは、60fpsの映像を映画と同じ24fpsに落とし込む事で、2.5倍のなめらかなオーバークランク効果を得ている。これは今まで、安いやつでも60万円位するクラスのビデオカメラでしか出来なかった事なので、10数万円のGH1でここまでやれてしまうのは非常に衝撃的だった。
スチール用の一眼(←詳細は省くけど、実はGH1は”一眼レフ”ではないのでこの表記)に高度な動画機能を乗せるのは今のトレンドだけど、個人的には「なんで出来ないんだろう?」と思っていた事がやっと実現した感じだ。乱暴な言い方をすれば、秒24コマ以上の静止画を連射できれば動画になるんだから。
多分、処理系の部分は最近のプロセッサの能力でやっと実現可能になったんだろうけど、膨大な蓄積のあるスチールカメラのレンズや構造をムービーに活かすというのは、ある種「枯れた技術の水平思考」と言えるかもしれない(微妙にニュアンスは違うかもしれないけど)。
この「枯れた技術の水平思考」は、任天堂でゲーム&ウォッチやゲームボーイを企画した伝説の人物である故・横井軍平氏の言葉。最新のものばかりではなく、既に広く普及しているものを発想を変えて使う事で、価格やトラブルの発生を抑制しながら新しいモノを作るという事。
例えば初代ゲームボーイは、当時既にカラー化も可能な中で白黒の液晶を採用した事で、価格を抑えると同時にバッテリーの持ちも大変良いという特徴を生み、同世代の携帯ゲーム機の中でダントツの勝ち組となった。この流れが最近のDSやWiiに至るまで受け継がれているのは、誰の目にも明らかだろう。
様々な分野で言える事だが、ものすごい新技術があっても、それを全然陳腐な発想でしか使えていない「最新技術の水没思考」とでも言うような場面のなんと多い事か。経験や蓄積は大きな財産だが、それを思考停止の口実に使ってしまうと非常に残念な結果を生む。
変な話、ドラえもんの道具をトンデモない発想で使うのび太はすごいなあ、と最近とみに思う。ドラえもんの来ない未来では、就職に失敗して起業したりしてるし(笑)。あれは、花火で火事にしてなければ、結構ドラえもんが来なくとも成功していたかも?(^^;)。
お店は恵比寿駅から数分の好立地で、映像にもあるようにアンティークで統一された内装がとてもお洒落。スタッフの皆様もとてもフレンドリーなお店なので、ご興味を持たれた方は是非一度お店のサイトもご覧ください。
さて、実はこのムービー、Panasonicの動画一眼「GH1」で撮影している。お店の皆様にご協力頂きながらスタッフは私1人という最小規模の撮影体制だったが、普通のビデオカメラ撮影とは一味違う面白い画を撮る事ができた。
今回の一番のポイントは、本格的な「オーバークランク」(高速度撮影によるスローモーション)を多用できた事。通常のビデオカメラは秒間訳30コマで撮影しており、これをスロー再生するとコマとコマの間が無くなるためカクカクした動きになる。
しかしGH1は、1280x720ピクセル(いわゆる720p)の解像度なら秒間60コマの撮影が可能。このPVでは、60fpsの映像を映画と同じ24fpsに落とし込む事で、2.5倍のなめらかなオーバークランク効果を得ている。これは今まで、安いやつでも60万円位するクラスのビデオカメラでしか出来なかった事なので、10数万円のGH1でここまでやれてしまうのは非常に衝撃的だった。
スチール用の一眼(←詳細は省くけど、実はGH1は”一眼レフ”ではないのでこの表記)に高度な動画機能を乗せるのは今のトレンドだけど、個人的には「なんで出来ないんだろう?」と思っていた事がやっと実現した感じだ。乱暴な言い方をすれば、秒24コマ以上の静止画を連射できれば動画になるんだから。
多分、処理系の部分は最近のプロセッサの能力でやっと実現可能になったんだろうけど、膨大な蓄積のあるスチールカメラのレンズや構造をムービーに活かすというのは、ある種「枯れた技術の水平思考」と言えるかもしれない(微妙にニュアンスは違うかもしれないけど)。
この「枯れた技術の水平思考」は、任天堂でゲーム&ウォッチやゲームボーイを企画した伝説の人物である故・横井軍平氏の言葉。最新のものばかりではなく、既に広く普及しているものを発想を変えて使う事で、価格やトラブルの発生を抑制しながら新しいモノを作るという事。
例えば初代ゲームボーイは、当時既にカラー化も可能な中で白黒の液晶を採用した事で、価格を抑えると同時にバッテリーの持ちも大変良いという特徴を生み、同世代の携帯ゲーム機の中でダントツの勝ち組となった。この流れが最近のDSやWiiに至るまで受け継がれているのは、誰の目にも明らかだろう。
様々な分野で言える事だが、ものすごい新技術があっても、それを全然陳腐な発想でしか使えていない「最新技術の水没思考」とでも言うような場面のなんと多い事か。経験や蓄積は大きな財産だが、それを思考停止の口実に使ってしまうと非常に残念な結果を生む。
変な話、ドラえもんの道具をトンデモない発想で使うのび太はすごいなあ、と最近とみに思う。ドラえもんの来ない未来では、就職に失敗して起業したりしてるし(笑)。あれは、花火で火事にしてなければ、結構ドラえもんが来なくとも成功していたかも?(^^;)。
PR
2010 .03.25
前回の記事で書いたMIDI音声合成のテクニックについて、いくつかの反応を頂いた。特に、Twitter上でitsuki_imazakiさんがつぶやかれていた内容が興味深かったので、お許しを頂いた上でリストにまとめてみた。
http://togetter.com/li/10942
この中で「発声は不明瞭だけど、ボーカロイドよりも人間味がある」というのは結構核心的な部分で、おそらく元素材になっている歌声のキャラクターが残っているからだろう。それをちょっとスライドして考えると、MIDIデータといういかようにも編集できるデータなので、体系立てた生成のアルゴリズムができれば、精度はともかくニュアンスの表現としてはUTAUやVOCALOIDよりも自在な表現のできるバーチャルボーカルができるかもしれない。
ここら辺は私のレベルでは想像の域を脱せないので、せめてもじゃないけど、今回の実験に使ったツールだけでもご紹介しておこう。
前記事の実験には「オート符SA」というソフトを使用した。これは、読み込んだWAVファイルを数ステップの操作で(細かな設定も可能)解析してMIDIデータに変換できるという大変面白いツール。初心者向けDAWなどによく付いている「鼻歌入力」は基音の音程を抽出するのに比べ、オート符は倍音構成をまるごとMIDIデータ化してくれるので、エフェクター的な使い方など様々な応用が考えられえる。
正直私もデフォルト設定でWAV→MIDI変換する程度の使い方しかしていないので(それだけだと、説明を読まなくともできる位簡単!)是非皆さんも実際に触って、面白い使い方を編み出して頂きたい。
オート符に関して余談を一つ。以前、確かフジテレビで、SMAPの稲垣吾郎がナビゲーターで「音楽を科学で分析する」みたいな特番をやっていた。何夜連続かでやっていたが、「音楽を」という割に丸々歌詞についてしか言及しない回があったり少し「?」な番組だったのだが、そこでこのオート符が紹介されていた。
ところが、その内容が問題。番組では「音を楽譜に変換できるソフト」といった紹介をされていたが(まあ、それは間違いではない)、やっていたのが「波の音」を楽譜に変換するという処理。よりによって一番ノイズに近い類の素材だが、案の定結果データを譜面で表示したものは「卵から一斉にかえったオタマジャクシ」のように音符が密集したものだった(なんの意味も無い譜面)。
番組はここから暴走し始める。この譜面を元に、ミュージシャンに曲を作ってもらおうという流れになっていた。担当したのは、雅楽の東儀秀樹さんと、作曲家の大島ミチルさんだったと思う。「これ、どうするんだろ…」とこっちがハラハラしながら観てるうちに、曲の演奏が始まった。
一流の音楽家の手によるものなので、演奏された楽曲は当然素晴らしいクオリティだった。だがしかし、いつまでもあの「波」が出てこない。そう思いながら観ていると…
シンバルが「しょわわわわ~ん」とクレッシェンドするフレーズが。
こ、これはまさしく波!…ていうか、これオート符の解析いらねえじゃん!
いや、お二人には何の責任も無い。あんなものを渡されて、さぞかし頭を抱えられたと思う。その中で素晴らしい楽曲を作られたプロ意識には頭が下がる思いだ。
腹立たしいのは、「科学」などという言葉を使って番組を作っておきながら、理解力も、理解しようとする態度すら感じられない制作側の姿勢だ。オート符の解析結果(もっとも‘”波”は向かないけど)を使えば、いくらでも面白い実験ができたのに。
この番組より、前回記事でリンクしたニコ動の投稿の方がずっと意義深く、面白い。テレビ離れがあるとすれば、制作サイドのこうした意識にも非常に大きな原因があるのでは?
http://togetter.com/li/10942
この中で「発声は不明瞭だけど、ボーカロイドよりも人間味がある」というのは結構核心的な部分で、おそらく元素材になっている歌声のキャラクターが残っているからだろう。それをちょっとスライドして考えると、MIDIデータといういかようにも編集できるデータなので、体系立てた生成のアルゴリズムができれば、精度はともかくニュアンスの表現としてはUTAUやVOCALOIDよりも自在な表現のできるバーチャルボーカルができるかもしれない。
ここら辺は私のレベルでは想像の域を脱せないので、せめてもじゃないけど、今回の実験に使ったツールだけでもご紹介しておこう。
前記事の実験には「オート符SA」というソフトを使用した。これは、読み込んだWAVファイルを数ステップの操作で(細かな設定も可能)解析してMIDIデータに変換できるという大変面白いツール。初心者向けDAWなどによく付いている「鼻歌入力」は基音の音程を抽出するのに比べ、オート符は倍音構成をまるごとMIDIデータ化してくれるので、エフェクター的な使い方など様々な応用が考えられえる。
正直私もデフォルト設定でWAV→MIDI変換する程度の使い方しかしていないので(それだけだと、説明を読まなくともできる位簡単!)是非皆さんも実際に触って、面白い使い方を編み出して頂きたい。
オート符に関して余談を一つ。以前、確かフジテレビで、SMAPの稲垣吾郎がナビゲーターで「音楽を科学で分析する」みたいな特番をやっていた。何夜連続かでやっていたが、「音楽を」という割に丸々歌詞についてしか言及しない回があったり少し「?」な番組だったのだが、そこでこのオート符が紹介されていた。
ところが、その内容が問題。番組では「音を楽譜に変換できるソフト」といった紹介をされていたが(まあ、それは間違いではない)、やっていたのが「波の音」を楽譜に変換するという処理。よりによって一番ノイズに近い類の素材だが、案の定結果データを譜面で表示したものは「卵から一斉にかえったオタマジャクシ」のように音符が密集したものだった(なんの意味も無い譜面)。
番組はここから暴走し始める。この譜面を元に、ミュージシャンに曲を作ってもらおうという流れになっていた。担当したのは、雅楽の東儀秀樹さんと、作曲家の大島ミチルさんだったと思う。「これ、どうするんだろ…」とこっちがハラハラしながら観てるうちに、曲の演奏が始まった。
一流の音楽家の手によるものなので、演奏された楽曲は当然素晴らしいクオリティだった。だがしかし、いつまでもあの「波」が出てこない。そう思いながら観ていると…
シンバルが「しょわわわわ~ん」とクレッシェンドするフレーズが。
こ、これはまさしく波!…ていうか、これオート符の解析いらねえじゃん!
いや、お二人には何の責任も無い。あんなものを渡されて、さぞかし頭を抱えられたと思う。その中で素晴らしい楽曲を作られたプロ意識には頭が下がる思いだ。
腹立たしいのは、「科学」などという言葉を使って番組を作っておきながら、理解力も、理解しようとする態度すら感じられない制作側の姿勢だ。オート符の解析結果(もっとも‘”波”は向かないけど)を使えば、いくらでも面白い実験ができたのに。
この番組より、前回記事でリンクしたニコ動の投稿の方がずっと意義深く、面白い。テレビ離れがあるとすれば、制作サイドのこうした意識にも非常に大きな原因があるのでは?
2010 .03.23
昨日、Twitterでフォローさせて頂いてる方のつぶやきから、この動画を観た。
これはいわゆる録音した音声ではなく、MIDI音源の発音(つまり、機械による楽器音の生演奏)でボーカルを表現したもの。わかりやすいように、同じ原理でごく簡単なサンプルを作ってみた。
まずこれは、元ネタとなるWAVファイル(録音された音声)。
これを、上の動画同様MIDIファイルで表現したのがこちら。WindowsならMedia Player、MacならQuicktime Player、その他GM対応のMIDI音源を持っている人はそれでもOK。再生すると、音源が喋ります(クリップ防止のため音量低め)。
この原理をごく簡単に説明してみよう。我々が普段聴いている音は「基音」(いわゆる“ドレミ”の音程を感じる、基礎となる部分)と「倍音」(きつい音、こもった音などの“音色”を決めている部分)という成分で構成されている。
音のキャラクターを決める倍音が一切含まれていないのが正弦波(サイン波)というもので、馴染み深い所ではテレビの放送禁止発言にかぶせる「ピー」音がそれだと思って頂ければ良い。色々な音程の正弦波を重ねると、理論上はこの世に存在するどんな音でも再現が可能なのだ。
サンプルファイルの話に戻ると、ここでは元の音声を解析して、倍音の構成をMIDIデータの音程に変換している。それを、正弦波に近い音(ここではオカリナの音色を使用)で再生する事で声を再現している。
これは「生演奏」という所がミソで、例えば同じデータをピアノの音で演奏するとこのようになる。
グチャグチャではあるものの、かすかに声の名残も聴き取れるのではないだろうか。
この手法は、DTMをやっている人には大抵「スゴイ!」と思ってもらえるのだけど、それ以外の人にはイマイチ凄さを理解してもらえない。それはそうだろう。今やあたりまえにパソコンで歌声を合成できる時代なんだから。
普段からテクノロジーと表現を結びつけるネタを虎視眈々と探している身としては、これもなんとか面白い形にしたいんだけど、残念ながら実験以上の見世物にできるアイデアがまだ無い。海外の動画で、これと同じ事を自動演奏の生ピアノでやっているのがあったけど、今のところ万人受けしそうなのはそれぐらいかなあ。
非常に前置きが長かったが、技術的にスゴイものでも、それを娯楽の域に持っていくのはやはり大変だなあ、という事である。この「MIDI音声合成」ネタ、何か面白い使い方を思いついた方がいたら、自分で作って発表してからでも良いので是非教えてください。
これはいわゆる録音した音声ではなく、MIDI音源の発音(つまり、機械による楽器音の生演奏)でボーカルを表現したもの。わかりやすいように、同じ原理でごく簡単なサンプルを作ってみた。
まずこれは、元ネタとなるWAVファイル(録音された音声)。
これを、上の動画同様MIDIファイルで表現したのがこちら。WindowsならMedia Player、MacならQuicktime Player、その他GM対応のMIDI音源を持っている人はそれでもOK。再生すると、音源が喋ります(クリップ防止のため音量低め)。
この原理をごく簡単に説明してみよう。我々が普段聴いている音は「基音」(いわゆる“ドレミ”の音程を感じる、基礎となる部分)と「倍音」(きつい音、こもった音などの“音色”を決めている部分)という成分で構成されている。
音のキャラクターを決める倍音が一切含まれていないのが正弦波(サイン波)というもので、馴染み深い所ではテレビの放送禁止発言にかぶせる「ピー」音がそれだと思って頂ければ良い。色々な音程の正弦波を重ねると、理論上はこの世に存在するどんな音でも再現が可能なのだ。
サンプルファイルの話に戻ると、ここでは元の音声を解析して、倍音の構成をMIDIデータの音程に変換している。それを、正弦波に近い音(ここではオカリナの音色を使用)で再生する事で声を再現している。
これは「生演奏」という所がミソで、例えば同じデータをピアノの音で演奏するとこのようになる。
グチャグチャではあるものの、かすかに声の名残も聴き取れるのではないだろうか。
この手法は、DTMをやっている人には大抵「スゴイ!」と思ってもらえるのだけど、それ以外の人にはイマイチ凄さを理解してもらえない。それはそうだろう。今やあたりまえにパソコンで歌声を合成できる時代なんだから。
普段からテクノロジーと表現を結びつけるネタを虎視眈々と探している身としては、これもなんとか面白い形にしたいんだけど、残念ながら実験以上の見世物にできるアイデアがまだ無い。海外の動画で、これと同じ事を自動演奏の生ピアノでやっているのがあったけど、今のところ万人受けしそうなのはそれぐらいかなあ。
非常に前置きが長かったが、技術的にスゴイものでも、それを娯楽の域に持っていくのはやはり大変だなあ、という事である。この「MIDI音声合成」ネタ、何か面白い使い方を思いついた方がいたら、自分で作って発表してからでも良いので是非教えてください。
けっこうあちこちでリンクされている動画なので見た事のある人も多いかもしれないけど、これは海外ドラマの制作におけるキーイング(ブルーやグリーン一色のバックを切り抜いて合成する処理)の実例を集めたもの。日本でもヒットしたドラマが多いので、まったく気付かずに本編を観ていてびっくりした方も多いかと思う。
一番特徴的なのは、キーイングの処理が使われているのは「現実でも十分撮影可能」なシーンが多いという事だ。合成というと恐竜が出てきたり、宇宙を漂ったりという画面を連想するが、ここではあくまで「必要なカットを得る」ための手段としてさりげない活用がなされている。
動画系の撮影に参加した事のある方ならわかると思うが、「ごく当たり前の風景」を撮影するのはものすごく大変な事だ。まず天気はこちらの思惑などかまってはくれないし、街中であれば道路使用許可や交通規制なども必要になる。予算はもちろん、放映スケジュールが決まっているTVシリーズでは、文字通り死活問題だ(特に米国では、役者以外にスタッフのユニオンの力も強いから、無闇やたらと「待ち」の時間も増やせないのだろう)。
ツールは、それを「使いました!」という事が宣伝のタネとなるうちはまだ未熟。それが使われている事を予想だにしなかった部分にさりげなく使われるようになって、初めて一つの成熟点と言えるようになる。そして成熟点に達して初めて「手法としてのローファイ」を使う事が出来るようになる。
音楽で「ローファイ」という言葉が流行ったのはもう十数年も前だけど、その頃はCD並の音質のサンプラーがアマチュアでも十分手に入る価格となり、打ち込みオンリーでも「リアルな生音」を比較的簡単に入れられるようになった時期だ。そうした時期に、1〜2世代前の音質の荒いサンプラー(テイ・トウワなんかが使ったSP-1200が有名)を意図的に使う手法も台頭して、今やそういった意味での音質は、所有機材などではなく「作家性として」使い分けるものとなっている。
今、バーチャルボーカルの分野は(異論はあるだろうけど世間の認識として)「初音ミク」が代名詞的な存在であり、それを使っている事を商品価値とする事も(まだぎりぎり)可能な段階だ。これが例えば、バーチャルボーカルがCMソングなんかに(全くそれと気がつかない形で)使われる段階になったら、どんな状況が生み出されるだろう。現段階のVOCALOIDやUTAUの表現力の限界を、逆にものすごい武器として使える状況はいずれ間違いなくやってくる。
そういった成熟を生み出すのに最も必要なのは、「100の勝ち馬に乗る」行為ではなく「1つのチャレンジ」だ。今のように社会全体の停滞が囁かれる時期というのは、言い方を変えれば「失敗するチャンス」とも言える。皆がイケイケの時に一人失敗するのはちょっと辛いけど、全体が「失敗して当たり前」という意識になっている時期こそ、トライ&エラーで経験値やデータをためて行くにはもってこいの時期だ。
これは「ポジティブシンキング」とかそういうちょっとアレなもの(笑)ではなく、こんな好機に何もしないのはとっても損な事ですよ。
2010 .03.22
毎回講師を務めさせて頂いている、(株)電報児さんの「After effectsベーシックコース」、4月は4/21、22の2日間の日程となりました(来週3/30、31の回にもまだ間に合う模様です)。
授業では、2日間に渡ってAdobe After Effectsの基礎を追いながら、さらに書籍ではなかなか得られない実践的なノウハウなども盛り込んで行くので、全く初めての方から、多少の操作経験のある方までお役立て頂ける内容になっています。
After Effectsは動画(モーショングラフィック)向けのソフトですが、実は静止画やWeb、さらに紙媒体まで幅広い応用の効くソフトです。動画を作らない方でも、例えばデザイナーさんなどでも、習得することで非常に大きな武器とする事ができる要素を含んでいます。
広い意味でビジュアルの作成に関わるクリエイターの方には必ず役立つスキル満載の講座ですので、ご興味のある方は是非ご検討ください!
授業では、2日間に渡ってAdobe After Effectsの基礎を追いながら、さらに書籍ではなかなか得られない実践的なノウハウなども盛り込んで行くので、全く初めての方から、多少の操作経験のある方までお役立て頂ける内容になっています。
After Effectsは動画(モーショングラフィック)向けのソフトですが、実は静止画やWeb、さらに紙媒体まで幅広い応用の効くソフトです。動画を作らない方でも、例えばデザイナーさんなどでも、習得することで非常に大きな武器とする事ができる要素を含んでいます。
広い意味でビジュアルの作成に関わるクリエイターの方には必ず役立つスキル満載の講座ですので、ご興味のある方は是非ご検討ください!
2010 .03.19
古本の資料的価値についてTwitterでつぶやいていたら、ふと国会図書館の「献本制度」の事を思い出した。
献本制度とは「日本国内で発行した書籍は、資料として国会図書館に一冊よこしなさい」という制度。強固なものではないのでもちろん抜けも多々あるだろうけど、これにより一般的な書物の大部分は資料としてアーカイブされている形となる。同人誌なども受け付けているので、作っている人は是非自分の活動の記録としても献本しておくと良い(後世、どんな貴重な資料になるかわからない)。
さて、本題に入ると、iPadやKindleの登場で急速な普及が喧伝されている電子書籍。これからは電子書籍のみで発行される作品も大幅に増えるだろうけど、そうなると献本制度はどうなるんだろ?という疑問がわいて来た。ある種、場所もとらないしアーカイブには最適な形だけど、じゃあファイル形式は?バックアップ体制は大丈夫?そもそも受け付けているの?ど疑問が付きない。
ちょっと検索してみたら、一応こんな取り組みはしているようで、さすがにノーマークではないらしい。また、出版物全般という事で少しニュアンスの違う部分もあるけど、閣僚のこんな発言も出てきた。(←余談だけど、このリンク先記事の2ページ目の出版社の権利保護の部分はなんかすごくチグハグな事言ってないかな?書籍コンテンツの価値は、版下的なデータじゃなくて内容そのものにあるのに)。
制度を作る上でもなんでも、普通のWebページやblogなんかと「電子書籍」はどう違うのか?ってのが結構大きな問題になりそう。個人的な見解では、サーバ上に置かれた複数のパーツから成り、常に改変の可能性がある動的なものは書籍とは呼べないと思う。書籍と呼べるものは、版ごとの改訂はあっても、ある時点の一版の内容が固定された静的なコンテンツである必要がある。そうしたものでなければ、アーカイブ資料としての意味も半減してしまう。
おそらくどんな形式で電子書籍を編集しても、PDFなら手間をかけずにコンバートできると思うので、とりあえずPDFでいいから国会図書館にPDFでの電子書籍献本の仕組みを作るべきではないか。でないと、何年かかけて仕組みを整備するにしても、それが出来るまでの間に資料の空白ができてしまう。それも、メディアの大転換という歴史上非常に重要な一時期の資料が。
一つ不安なのが、官公庁系のデータベースで出来の良いのをあまり見たことが無いという事。国家事業だから国内企業に、と言いたい所だけど、Googleあたりに良いのを作ってもらった方がよほど国益にかなうとしたら、なんとも皮肉な話だ。
献本制度とは「日本国内で発行した書籍は、資料として国会図書館に一冊よこしなさい」という制度。強固なものではないのでもちろん抜けも多々あるだろうけど、これにより一般的な書物の大部分は資料としてアーカイブされている形となる。同人誌なども受け付けているので、作っている人は是非自分の活動の記録としても献本しておくと良い(後世、どんな貴重な資料になるかわからない)。
さて、本題に入ると、iPadやKindleの登場で急速な普及が喧伝されている電子書籍。これからは電子書籍のみで発行される作品も大幅に増えるだろうけど、そうなると献本制度はどうなるんだろ?という疑問がわいて来た。ある種、場所もとらないしアーカイブには最適な形だけど、じゃあファイル形式は?バックアップ体制は大丈夫?そもそも受け付けているの?ど疑問が付きない。
ちょっと検索してみたら、一応こんな取り組みはしているようで、さすがにノーマークではないらしい。また、出版物全般という事で少しニュアンスの違う部分もあるけど、閣僚のこんな発言も出てきた。(←余談だけど、このリンク先記事の2ページ目の出版社の権利保護の部分はなんかすごくチグハグな事言ってないかな?書籍コンテンツの価値は、版下的なデータじゃなくて内容そのものにあるのに)。
制度を作る上でもなんでも、普通のWebページやblogなんかと「電子書籍」はどう違うのか?ってのが結構大きな問題になりそう。個人的な見解では、サーバ上に置かれた複数のパーツから成り、常に改変の可能性がある動的なものは書籍とは呼べないと思う。書籍と呼べるものは、版ごとの改訂はあっても、ある時点の一版の内容が固定された静的なコンテンツである必要がある。そうしたものでなければ、アーカイブ資料としての意味も半減してしまう。
おそらくどんな形式で電子書籍を編集しても、PDFなら手間をかけずにコンバートできると思うので、とりあえずPDFでいいから国会図書館にPDFでの電子書籍献本の仕組みを作るべきではないか。でないと、何年かかけて仕組みを整備するにしても、それが出来るまでの間に資料の空白ができてしまう。それも、メディアの大転換という歴史上非常に重要な一時期の資料が。
一つ不安なのが、官公庁系のデータベースで出来の良いのをあまり見たことが無いという事。国家事業だから国内企業に、と言いたい所だけど、Googleあたりに良いのを作ってもらった方がよほど国益にかなうとしたら、なんとも皮肉な話だ。
2010 .03.16
制作も立て込む中、明日は急遽大阪出張と何かとバタバタ。去年も確か、3月の同じ時期に大阪に行った記憶がある。そんな中、スタジオねこやなぎでは、従来のDTMツールとはちょっと違った文脈で手軽な音楽作りのできるツールの大詰め中。
今回の企画はエスニック系のボーカルが大量に必要になるけど、既存のサンプリングCDなどはコンテンツの性質上使いにくいので、独自に作る事にした。その1片をちょっと公開。
今回は、トーキングソフトの音声を「Music Maker2」内蔵の「エラスティック・ピッチチューン」を使って加工してみた。
今月のDTMマガジンのレビューでも書いたけど、このソフトは付属ツールのコストパフォーマンスがすこぶる高い。Music Makerは1万数千円だけど、このエラスティック・ピッチだけでそれぐらいの値段でもそれ程不思議はない感じ。付属の素材なんかを考えると、やっぱり安い。
正直、純粋にDAWとしての能力はCubaseやSONARのファミリーの方が高いので、ある程度本格的に作品を作りたい人にはそちらをおススメする。だけど、Music MakerはむしろそういったメインDAWを持っている人がサブツールとして使うにはかなり魅力的なツールだ。自分も10数年来のCubaseユーザーで、メインの作成は当然そちらだけど、結構細々した所でMusic Makerの面白い部分だけをつまみ使いしている。
このソフトは、Jamバンドみたいな売り方より、そういう「ベテランのサブツール」的な側面をアピールした方が良いんじゃないかなあ…と個人的に思う。
今回の企画はエスニック系のボーカルが大量に必要になるけど、既存のサンプリングCDなどはコンテンツの性質上使いにくいので、独自に作る事にした。その1片をちょっと公開。
今回は、トーキングソフトの音声を「Music Maker2」内蔵の「エラスティック・ピッチチューン」を使って加工してみた。
今月のDTMマガジンのレビューでも書いたけど、このソフトは付属ツールのコストパフォーマンスがすこぶる高い。Music Makerは1万数千円だけど、このエラスティック・ピッチだけでそれぐらいの値段でもそれ程不思議はない感じ。付属の素材なんかを考えると、やっぱり安い。
正直、純粋にDAWとしての能力はCubaseやSONARのファミリーの方が高いので、ある程度本格的に作品を作りたい人にはそちらをおススメする。だけど、Music MakerはむしろそういったメインDAWを持っている人がサブツールとして使うにはかなり魅力的なツールだ。自分も10数年来のCubaseユーザーで、メインの作成は当然そちらだけど、結構細々した所でMusic Makerの面白い部分だけをつまみ使いしている。
このソフトは、Jamバンドみたいな売り方より、そういう「ベテランのサブツール」的な側面をアピールした方が良いんじゃないかなあ…と個人的に思う。
2010 .03.14
今日もちょっと昨日の続きっぽい事を少々。
例えばUSBって、言うまでもなく機器同士のデータの送受信のために作られた規格だけど、最近は弱電デバイスの電源供給規格として急速に広まっている。これでようやく携帯の充電器も統一されそうだし、望むらくは、煩わしいモノの殿堂「ACアダプター」の根絶へと繋がってほしい。
いきなり何が言いたいかというと、道具というものは、使う人がひらめいた使い方がやがて「正解」になってしまう事もある。UTAUのイベントを企画しだした頃に、何人かの方から「UTAUはDTMツールとしてどうか?」という問いかけを受けた事があるが、(UTAUはあまりに立派に音楽ツールだとして)個人的には何らかの形で音にコミットできるソフトは、全部DTMソフトの因子を持っていると言って過言で無いと思う。
コンピュータ・ミュージックにしても、コンピュータ・グラフィックにしても、商業分野でのツールとして使われると、ある程度の体系化されたノウハウが構築され、それを習得する事に価値が生じてくる(私自身も、そうしたノウハウを他の人にレクチャーする事を生業の一部とさせて頂いているし)。だけど、例えば「小麦粉」はパンの生地にもなれば、うどんにもなれば、天ぷらの衣にもなるように、一つのツールや素材の答えが一つだけなんて事は、特に表現行為に関わる分野では絶対に無いはずなのだ。
現在のパーソナルコンピュータ、言い方を変えれば「私的なコンピュータデバイス」は、その登場期とは、形や性能よりも「存在の意味」自体が変化して来ている。多分自分自身は、今まで自分の中に蓄積して来た旧来の体系に、これからもずっと縛られ、そしてまた武器にもして行く事になると思うが、また同時に新しいパラダイムの方に足を突っ込みたい欲求もふつふつとわいている。
そういう事を…なるべく不真面目な雰囲気でやってみたいものだ(^^;)。
例えばUSBって、言うまでもなく機器同士のデータの送受信のために作られた規格だけど、最近は弱電デバイスの電源供給規格として急速に広まっている。これでようやく携帯の充電器も統一されそうだし、望むらくは、煩わしいモノの殿堂「ACアダプター」の根絶へと繋がってほしい。
いきなり何が言いたいかというと、道具というものは、使う人がひらめいた使い方がやがて「正解」になってしまう事もある。UTAUのイベントを企画しだした頃に、何人かの方から「UTAUはDTMツールとしてどうか?」という問いかけを受けた事があるが、(UTAUはあまりに立派に音楽ツールだとして)個人的には何らかの形で音にコミットできるソフトは、全部DTMソフトの因子を持っていると言って過言で無いと思う。
コンピュータ・ミュージックにしても、コンピュータ・グラフィックにしても、商業分野でのツールとして使われると、ある程度の体系化されたノウハウが構築され、それを習得する事に価値が生じてくる(私自身も、そうしたノウハウを他の人にレクチャーする事を生業の一部とさせて頂いているし)。だけど、例えば「小麦粉」はパンの生地にもなれば、うどんにもなれば、天ぷらの衣にもなるように、一つのツールや素材の答えが一つだけなんて事は、特に表現行為に関わる分野では絶対に無いはずなのだ。
現在のパーソナルコンピュータ、言い方を変えれば「私的なコンピュータデバイス」は、その登場期とは、形や性能よりも「存在の意味」自体が変化して来ている。多分自分自身は、今まで自分の中に蓄積して来た旧来の体系に、これからもずっと縛られ、そしてまた武器にもして行く事になると思うが、また同時に新しいパラダイムの方に足を突っ込みたい欲求もふつふつとわいている。
そういう事を…なるべく不真面目な雰囲気でやってみたいものだ(^^;)。
2010 .03.13
たとえばHTMLというもの。今はだいぶ、だいーぶマシにはなったけど、環境によって表示が崩れたりするし、レイアウトはあと一歩のツメがなかなか痒い所に手が届かないし、画像はリンクしてるだけだから全部別ファイルで、相対パスだと位置関係を崩しちゃダメ。フォントだって、見る環境によって違ってしまう。
こうしてみると、HTMLというのは、ある意図のもとに作る静的なコンテンツを作るのに、すごーく向いていない方式なんじゃないかと思う。個人的な趣味としては、例えばPDFみたいに、原則としてどこで見ても一緒に見えて、1枚の紙みたいに一つのファイルにまとまる方式の方が、ずっと精神衛生的に良い。動的に変わる部分だけリンクにするとかして。
だけど、例えばWebの検索結果のリンク先がPDFだったりすると、大抵の人はすごく腹立たしい気持ちを抱くだろう(私もそうだ)。何せ読み込みが遅く、また表示の反応もモッサリしている。ブラウザ上のPDFの動作は、とても次から次へとスピーディに情報を渡り歩く今のブラウジングの感覚にあっていない。
PDFというものは、何故か公式のAdobeのReaderの動作が重いため、すごく印象を悪くしている部分がある。しかし、例えばMac付属の「プレビュー」とか、PDF X-ChangeやFoxitなんかの(HTMLほどじゃないにしろ)軽いビュアーを使うと、PDFへの印象がガラッと変わってくる。
これから電子書籍が普及してくると、コンピュータ上の静的なドキュメントを読む機会がぐっと増えるだろう。そういったコンテンツの作成には、PDF的な構造のものの方がずっと向いているはずだ。人間の感覚はコンテンツを、「沢山の部品の集合体」ではなく「一つのモノ」として捉えるのだから。
例えばこういうブログも、画像をアップしようと思うとまず画像ファイルを作成し、アップロードし、それをさらに貼るというプロセスが必要となる。だけど、文章を書いている途中に画像編集の作業をしたり、重複しないファイル名を考えたりは非常に煩わしい。コピペやドラッグで、適当にテンポラリのファイル名を作成してサーバ上に保存されて、人間側はあくまで「一つのドキュメント」だけを操作している感覚にできないか。
実は、最近人気のメモサービス「Evernote」なんかはこれに非常に近くて、中間ファイル無しにテキスト上に何でも貼りつけていけて、それが自動的にサーバの方にたまって行くので、例えばスクリーンショットを撮りながら文章を書く場合などは非常に心地よく操作が行える。
Evernoteは便利でイマドキなサービスだけど、テクノロジー的には特に新しい事をやっているわけではない。ただ、その見せ方、ユーザーの関わらせ方が非常に上手いのだ。
今現在、身の回りに当たり前に存在しているものでも、見せ方を変えるだけで新たなニーズを生みだせるものが沢山ありそうだ。
こうしてみると、HTMLというのは、ある意図のもとに作る静的なコンテンツを作るのに、すごーく向いていない方式なんじゃないかと思う。個人的な趣味としては、例えばPDFみたいに、原則としてどこで見ても一緒に見えて、1枚の紙みたいに一つのファイルにまとまる方式の方が、ずっと精神衛生的に良い。動的に変わる部分だけリンクにするとかして。
だけど、例えばWebの検索結果のリンク先がPDFだったりすると、大抵の人はすごく腹立たしい気持ちを抱くだろう(私もそうだ)。何せ読み込みが遅く、また表示の反応もモッサリしている。ブラウザ上のPDFの動作は、とても次から次へとスピーディに情報を渡り歩く今のブラウジングの感覚にあっていない。
PDFというものは、何故か公式のAdobeのReaderの動作が重いため、すごく印象を悪くしている部分がある。しかし、例えばMac付属の「プレビュー」とか、PDF X-ChangeやFoxitなんかの(HTMLほどじゃないにしろ)軽いビュアーを使うと、PDFへの印象がガラッと変わってくる。
これから電子書籍が普及してくると、コンピュータ上の静的なドキュメントを読む機会がぐっと増えるだろう。そういったコンテンツの作成には、PDF的な構造のものの方がずっと向いているはずだ。人間の感覚はコンテンツを、「沢山の部品の集合体」ではなく「一つのモノ」として捉えるのだから。
例えばこういうブログも、画像をアップしようと思うとまず画像ファイルを作成し、アップロードし、それをさらに貼るというプロセスが必要となる。だけど、文章を書いている途中に画像編集の作業をしたり、重複しないファイル名を考えたりは非常に煩わしい。コピペやドラッグで、適当にテンポラリのファイル名を作成してサーバ上に保存されて、人間側はあくまで「一つのドキュメント」だけを操作している感覚にできないか。
実は、最近人気のメモサービス「Evernote」なんかはこれに非常に近くて、中間ファイル無しにテキスト上に何でも貼りつけていけて、それが自動的にサーバの方にたまって行くので、例えばスクリーンショットを撮りながら文章を書く場合などは非常に心地よく操作が行える。
Evernoteは便利でイマドキなサービスだけど、テクノロジー的には特に新しい事をやっているわけではない。ただ、その見せ方、ユーザーの関わらせ方が非常に上手いのだ。
今現在、身の回りに当たり前に存在しているものでも、見せ方を変えるだけで新たなニーズを生みだせるものが沢山ありそうだ。
2010 .03.11
しばらく普通のツール紹介もやってなかった気がするので、たまにはお気に入りのプラグイン開発元の紹介でも。本日のネタはTAL(Togu Audio Line)、シンセからエフェクトまで、かなりの数の良質なフリープラグインをリリースしています。
これはそこそこのメーカーでもインディペンデントでもそうなんだけど、全く方向性の違うプラグインでも、開発元が同じだと同じ風合いのようなもの(明らかな音色の違いというより、ミックスするとわからない位の質感の違い)がある場合も多い。これは、開発者の好みによるチューニングも問題もあるし、部分的にソースの流用などが行われているためだろう。
TALのシンセにもしっかりその特徴があり、一番感じるのが「張りのよさ」といった感じの質感。これはオシレータの特性もあるけど、触っているとフィルターによるものじゃないかと感じる。TALのシンセは、レゾナンスを上げた時の発振音に耳につく感じが少なく心地よい。アナログシンセを模したソフトは星の数ほどあり、TALもアナログとイコールとかではないけど、レスポンスの心地よさは結構好感が持てる。
以下、何本かご紹介。
TAL-BassLine
ROLANDの、アナログ末期のシンセ「SH-101」を模したもの。これはエンベロープが一系統しかない(VCA、VCF共用)など結構構造上の制限が多い。実記は部品点数を減らして安くするためにこの構造になったので、いくらでも贅沢できるソフトでは「わざわざチープにしている」事になるけど、こういった制限内で音作りにチャレンジすると結構良いのができる事も多い。シンプルな分、音作りの入門にもおススメ。
TAL-U-No-62
こちらもROLANDの、アナログポリシンセのヒットモデル「Juno-60」を模したもの。この直後のDX7の登場で一気にデジタル化して行く直前の、電気電気していた頃のシンセサウンドを堪能できる。自分はこの時代は幼稚園~小学校位なので、割とはっきり記憶がある中の、リアルタイムで体験した最古のノスタルジーでもあるんだよねえ。
TAL-ELEC7RO
これは何かの再現ではなく、独自設計のモノシンセだけど、サウンドの素性が凄く良いと感じる!確か2000年位に、TC Worksの「Mercury-1」というモノシンセプラグインが出た時に、その音の密度の高さに驚かされたけど(当時やはり出始めのNative Instrumentsとかよりずっと音は好みだった)、けっこうそれに通じる足腰の強さがある。
TALのプラグインに共通して一つやっかいなのが、CPU負荷が多少高い事。自分が今音楽用に使っているOpteron246x2のマシンでも、1音あたり約10%も消費する(REASONなら、100ポリ超えても楽々なのに)。U-No-62だと6ポリだから、ガンガン弾いちゃうともう一杯だ。これは、かなり「真面目に」演算をやっているんじゃないかと予想されるが(多分、それゆえの音のよさ)、サウンドにはそれを押して使うだけの魅力がある。
気軽に使えるお勧めとしては
U-No-62から特徴的なコーラスのみを取り出したエフェクターの「CHORUS-60」。例えばSynth1とかにこれをかけても結構雰囲気が出るので、適度にひなびた心地よいパッドとか作りたい時には是非おススメです。
これはそこそこのメーカーでもインディペンデントでもそうなんだけど、全く方向性の違うプラグインでも、開発元が同じだと同じ風合いのようなもの(明らかな音色の違いというより、ミックスするとわからない位の質感の違い)がある場合も多い。これは、開発者の好みによるチューニングも問題もあるし、部分的にソースの流用などが行われているためだろう。
TALのシンセにもしっかりその特徴があり、一番感じるのが「張りのよさ」といった感じの質感。これはオシレータの特性もあるけど、触っているとフィルターによるものじゃないかと感じる。TALのシンセは、レゾナンスを上げた時の発振音に耳につく感じが少なく心地よい。アナログシンセを模したソフトは星の数ほどあり、TALもアナログとイコールとかではないけど、レスポンスの心地よさは結構好感が持てる。
以下、何本かご紹介。
TAL-BassLine
ROLANDの、アナログ末期のシンセ「SH-101」を模したもの。これはエンベロープが一系統しかない(VCA、VCF共用)など結構構造上の制限が多い。実記は部品点数を減らして安くするためにこの構造になったので、いくらでも贅沢できるソフトでは「わざわざチープにしている」事になるけど、こういった制限内で音作りにチャレンジすると結構良いのができる事も多い。シンプルな分、音作りの入門にもおススメ。
TAL-U-No-62
こちらもROLANDの、アナログポリシンセのヒットモデル「Juno-60」を模したもの。この直後のDX7の登場で一気にデジタル化して行く直前の、電気電気していた頃のシンセサウンドを堪能できる。自分はこの時代は幼稚園~小学校位なので、割とはっきり記憶がある中の、リアルタイムで体験した最古のノスタルジーでもあるんだよねえ。
TAL-ELEC7RO
これは何かの再現ではなく、独自設計のモノシンセだけど、サウンドの素性が凄く良いと感じる!確か2000年位に、TC Worksの「Mercury-1」というモノシンセプラグインが出た時に、その音の密度の高さに驚かされたけど(当時やはり出始めのNative Instrumentsとかよりずっと音は好みだった)、けっこうそれに通じる足腰の強さがある。
TALのプラグインに共通して一つやっかいなのが、CPU負荷が多少高い事。自分が今音楽用に使っているOpteron246x2のマシンでも、1音あたり約10%も消費する(REASONなら、100ポリ超えても楽々なのに)。U-No-62だと6ポリだから、ガンガン弾いちゃうともう一杯だ。これは、かなり「真面目に」演算をやっているんじゃないかと予想されるが(多分、それゆえの音のよさ)、サウンドにはそれを押して使うだけの魅力がある。
気軽に使えるお勧めとしては
U-No-62から特徴的なコーラスのみを取り出したエフェクターの「CHORUS-60」。例えばSynth1とかにこれをかけても結構雰囲気が出るので、適度にひなびた心地よいパッドとか作りたい時には是非おススメです。