忍者ブログ
2024 .04.26
×

[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。

synthmania1
synthmania2
Synth Mania

アナログシンセ、デジタルシンセから、果ては一部のソフトシンセまで、古今東西の膨大な量に上るシンセのサウンドを聴く事のできるサイト。

PR
YAMAHA謹製のVOCALOID「VY1」が本日正式発表となった。予想外の和テイストなパッケージに少しびっくり。ああいう桜色は、楽器店、パソコンショップを通じてあまり無いカラーリングで非常に目立つと思うんだけど、どうやら公式ストアでの通販のみな模様。勿体無いなあ。

特定のキャラ絵の無いパッケージは、また別の意味でも店頭で意義を発揮する場合もある。私は、ムックに原稿を書いたりしながらもちゃんと自腹で初音ミクを購入したが(別に威張る事ではないが)、正直、30代半ばのおじさんがあのパッケージをレジに持って行くのは少々勇気が必要だった。逆に本当にHなビデオとかだったら開き直れるかもしれないけど(?)、なまじ「領収書ください」なんて言うと誤魔化しているような印象を持たれるのでは…と思春期並の自意識過剰になってしまう。

その点、VY1なら何の抵抗も無くレジに持って行けるし、YAMAHAの方でアナウンスしているように純粋に楽器として使いたい人も抵抗無いはず。既存キャラの呪縛を超えてキャラクターを作りたい人にも(既にUTAUという魅力的なツール&シーンはあるけど)ピッタリだろう。正直、VY1の声質には個人的にあんまり魅力を感じないのだが、こういうアプローチの製品が出た事は歓迎すべき流れだろう。

さて、「特定のキャラが設定されていないバーチャルボーカルにキャラをあてる」という試み、実は私もやった事がある。以前 DTMマガジンの連載でフリーのボーカルソフト「AquesTone」をご紹介した際、勝手に「灰汁江(あくえ)」というキャラクターを作って、サンプル曲と一緒に発表した。




灰汁江は、時折霊が憑依して違う声が出る「イタコ」キャラ(AquesToneの、パラメータ調整で声を作れるという特徴を活かした)。もちろんこれは、初音ミクの萌え属性と思いっきり逆を行ってみようという一種のパロディなのだが、雑誌で発表しただけに一部で「公式キャラか?」「本当にこの路線で行くのか…?」などと変に話題になってしまった(いや、これ公式なわけは無いでしょう!(^^;))。

VY1でも色々と出て来るんだろうな、と少し楽しみな一方、色々と考える所もある。AquesToneはソフト内で音声を合成する「シンセサイザー」であり、最近流行った言い方をすれば「非実在音声」と呼ぶ事ができる。対してVOCALOIDは、実在の人物の声をライブラリ化して音源にする技術。根本的に「属人性」が非常に高いのだ。

例えばアニメで、岩が◯◯というキャラの声で喋っていたら「◯◯が岩に変えられた!」と認識される。対して、姿形は◯◯でも声が違っていると「誰かが◯◯に化けている(または肉体を乗っ取っている)」と認識されるだろう。時に声というのは、姿形よりも属人性が高いのだ。

VY1の声は、AquesToneに比べて明らかに属人性(中の人の個性)を感じさせる。しかし同時にVY1は、キャラが設定されないのはもちろん、声の提供者の素性も明かされない「匿名」の存在だ。

果たして、純粋に匿名な声とは存在し得るのか?VY1はユーザー達によってどのような「人工的な属人性」を与えられるのか?これからの展開が非常に楽しみだ。

KORGのERECTRIBEやPropellerheadsのRB-338を筆頭に、音楽用ソフトがどんどんiPhone/iPad向けに流れ込んで行ってる。なんだかちょっと、10年くらい前にすごい勢いでソフトウェア化が進んだ時の模様が思い出されて、非常に感慨深いものがある。

この状況は喜ばしいものの、一つ問題となるのが、iPhone/iPadのオーディオ的な質。コンシューマ向けのリスニングデバイスとしては全然問題無いけど、楽器としてもう一段上の存在を目指すなら、これから避けて通れない問題である事は間違いない。Appleが楽器/DTM機材向けにカスタムされた機種を出す事はまず無いだろうし、拡張デバイスとしてオーディオインターフェースは絶対出るだろうけど、電源部分や筐体の造りから楽器向けに特化されたデバイスが欲しい所。

そこで、各メーカーさんに提案。そこそこの音質を持って低レイテンシーのオーディオインターフェースを内蔵した「Android端末」(電話機能はいらない)をどこか作って頂けないだろうか?これが出来ると、ここ数年売れ筋だったDTM系のハード、例えばKORGのKAOSSIRATORや、ROLANDのフィールドレコーダーR-**シリーズなんかの市場はごっそり持っていける気がする(もちろん、ハード製作能力のあるこれらのメーカーが端末を作っても良いし)。

現状のシェア以外でApple製品の良い所は、ハード仕様が統一されている事でソフト開発がし易いという所。だけど、逆にニッチ分野に特化したハードは拡張デバイス以外では作れないという弱点もある。その点、Androidは自由にハードが作れる魅力がある。価格がApple製品より少し高くなっても、その中で無数のソフトが走れば割高感は無い。

画面の解像度とかはiPhone/iPadと同一にしちゃってかまわない。iPhone向けアプリをAndroidに移植するのは簡単なはずだから、iPhoneのシェアによる売上と、特化されたデバイスでの売上という拡大が望め、ベンダーにとっても非常に魅力的なはず。

同じ事はDTM分野以外でも色々と鉱脈がありそうだけど、はたしてどういう流れになって行くか?今後が楽しみ。


動画は、iPad版の不思議の国のアリス。なんだかこれを観ると、電子書籍普及の是否やら権利関係の事やらをちまちま言っているうちに、時代だけがとんでもなく先まで行ってしまう気がする。この前結成された日本の出版社の寄り合いは、これ以上のインパクトを一度でも打ち出せるだろうか?

音楽業界はついぞそれができずに、着うた以外はiTunesが席巻してしまった。また遅れて外資系のストアにばかり乗る形となり、せいぜい「村上春樹全作配信開始!」なんてのを最大のPRポイントにするのだろうか。それも今のうちならインパクトがまだあるけど、いつまでも過去の遺産では食べていけない。

話をアリスに戻すと、これは確かに「電子書籍の醍醐味」を存分に感じさせる、読み手としても作り手としても大いに刺激的な一品である事は間違いない。ただ、こういった派手な仕掛けはやはり「特殊事例」であり、あくまで静的なコンテンツである書籍がどうスマートに電子化されて行くかにも非常に興味がある。動(イノベーション)と静(トラディショナルの継承)の均衡あってこその「次世代」だと思うので。

このアリスは、絵本という媒体を非常にうまくデジタルの領域で拡張しているけれど、例えば音楽作品でもこうした拡張が何か行えないかなあ、と色々考えている。例えば、iPhoneで聴く事が全体のアルバムなんてのも面白い。音声ファイルではなくアプリとして配信して、例えばGPSと連動して滞在している場所でミックスを変えるとか、振動を感知してBPMを変えるとか(これもうあったっけ?)、カメラの画像から天気や室内/屋外を判断して変化するとか。

一つ書いておくと、例えばビートルズの「サージェントペパー」みたいに細部まで作りこまれたトータルアルバムは大好きだし、作り手としても自分の意図をなるだけ完全に反映させた形のものを出したいという欲求もある。だけど、ベスト盤以外の「アルバム」がどんどん衰退している現在の状況を打破するために、こうした拡張のアプローチはどんどんすべきと思う。10数年前(「マルチメディア」の流行の頃)に囁かれた「インタラクティブ」が、やっとまともな形で可能になって来たのだから。

うちでもなるだけ早くそうした試みを入れた作品をリリースしたいけど、他のプロジェクトとの兼ね合いで少なくとももう少しは後になると思うので、上で書いたiPhone用アルバムのアイデアとかにピンと来た方がいればどんどんやってしまって欲しい。最近はAR(拡張現実)が流行ってきているけど、音楽作品や映像作品の概念だってどんどんカクチョーできる、カクチョーされるべきものなのだ。

前回の記事で書いたMIDI音声合成のテクニックについて、いくつかの反応を頂いた。特に、Twitter上でitsuki_imazakiさんがつぶやかれていた内容が興味深かったので、お許しを頂いた上でリストにまとめてみた。

http://togetter.com/li/10942

この中で「発声は不明瞭だけど、ボーカロイドよりも人間味がある」というのは結構核心的な部分で、おそらく元素材になっている歌声のキャラクターが残っているからだろう。それをちょっとスライドして考えると、MIDIデータといういかようにも編集できるデータなので、体系立てた生成のアルゴリズムができれば、精度はともかくニュアンスの表現としてはUTAUやVOCALOIDよりも自在な表現のできるバーチャルボーカルができるかもしれない。

ここら辺は私のレベルでは想像の域を脱せないので、せめてもじゃないけど、今回の実験に使ったツールだけでもご紹介しておこう。

オート符







前記事の実験には「オート符SA」というソフトを使用した。これは、読み込んだWAVファイルを数ステップの操作で(細かな設定も可能)解析してMIDIデータに変換できるという大変面白いツール。初心者向けDAWなどによく付いている「鼻歌入力」は基音の音程を抽出するのに比べ、オート符は倍音構成をまるごとMIDIデータ化してくれるので、エフェクター的な使い方など様々な応用が考えられえる。

正直私もデフォルト設定でWAV→MIDI変換する程度の使い方しかしていないので(それだけだと、説明を読まなくともできる位簡単!)是非皆さんも実際に触って、面白い使い方を編み出して頂きたい。

オート符に関して余談を一つ。以前、確かフジテレビで、SMAPの稲垣吾郎がナビゲーターで「音楽を科学で分析する」みたいな特番をやっていた。何夜連続かでやっていたが、「音楽を」という割に丸々歌詞についてしか言及しない回があったり少し「?」な番組だったのだが、そこでこのオート符が紹介されていた。

ところが、その内容が問題。番組では「音を楽譜に変換できるソフト」といった紹介をされていたが(まあ、それは間違いではない)、やっていたのが「波の音」を楽譜に変換するという処理。よりによって一番ノイズに近い類の素材だが、案の定結果データを譜面で表示したものは「卵から一斉にかえったオタマジャクシ」のように音符が密集したものだった(なんの意味も無い譜面)。

番組はここから暴走し始める。この譜面を元に、ミュージシャンに曲を作ってもらおうという流れになっていた。担当したのは、雅楽の東儀秀樹さんと、作曲家の大島ミチルさんだったと思う。「これ、どうするんだろ…」とこっちがハラハラしながら観てるうちに、曲の演奏が始まった。

一流の音楽家の手によるものなので、演奏された楽曲は当然素晴らしいクオリティだった。だがしかし、いつまでもあの「波」が出てこない。そう思いながら観ていると…

シンバルが「しょわわわわ~ん」とクレッシェンドするフレーズが。

こ、これはまさしく波!…ていうか、これオート符の解析いらねえじゃん!

いや、お二人には何の責任も無い。あんなものを渡されて、さぞかし頭を抱えられたと思う。その中で素晴らしい楽曲を作られたプロ意識には頭が下がる思いだ。

腹立たしいのは、「科学」などという言葉を使って番組を作っておきながら、理解力も、理解しようとする態度すら感じられない制作側の姿勢だ。オート符の解析結果(もっとも‘”波”は向かないけど)を使えば、いくらでも面白い実験ができたのに。

この番組より、前回記事でリンクしたニコ動の投稿の方がずっと意義深く、面白い。テレビ離れがあるとすれば、制作サイドのこうした意識にも非常に大きな原因があるのでは?

昨日、Twitterでフォローさせて頂いてる方のつぶやきから、この動画を観た。



これはいわゆる録音した音声ではなく、MIDI音源の発音(つまり、機械による楽器音の生演奏)でボーカルを表現したもの。わかりやすいように、同じ原理でごく簡単なサンプルを作ってみた。

まずこれは、元ネタとなるWAVファイル(録音された音声)。


これを、上の動画同様MIDIファイルで表現したのがこちら。WindowsならMedia Player、MacならQuicktime Player、その他GM対応のMIDI音源を持っている人はそれでもOK。再生すると、音源が喋ります(クリップ防止のため音量低め)。



この原理をごく簡単に説明してみよう。我々が普段聴いている音は「基音」(いわゆる“ドレミ”の音程を感じる、基礎となる部分)と「倍音」(きつい音、こもった音などの“音色”を決めている部分)という成分で構成されている。

音のキャラクターを決める倍音が一切含まれていないのが正弦波(サイン波)というもので、馴染み深い所ではテレビの放送禁止発言にかぶせる「ピー」音がそれだと思って頂ければ良い。色々な音程の正弦波を重ねると、理論上はこの世に存在するどんな音でも再現が可能なのだ。

サンプルファイルの話に戻ると、ここでは元の音声を解析して、倍音の構成をMIDIデータの音程に変換している。それを、正弦波に近い音(ここではオカリナの音色を使用)で再生する事で声を再現している。

これは「生演奏」という所がミソで、例えば同じデータをピアノの音で演奏するとこのようになる。


グチャグチャではあるものの、かすかに声の名残も聴き取れるのではないだろうか。

この手法は、DTMをやっている人には大抵「スゴイ!」と思ってもらえるのだけど、それ以外の人にはイマイチ凄さを理解してもらえない。それはそうだろう。今やあたりまえにパソコンで歌声を合成できる時代なんだから。

普段からテクノロジーと表現を結びつけるネタを虎視眈々と探している身としては、これもなんとか面白い形にしたいんだけど、残念ながら実験以上の見世物にできるアイデアがまだ無い。海外の動画で、これと同じ事を自動演奏の生ピアノでやっているのがあったけど、今のところ万人受けしそうなのはそれぐらいかなあ。

非常に前置きが長かったが、技術的にスゴイものでも、それを娯楽の域に持っていくのはやはり大変だなあ、という事である。この「MIDI音声合成」ネタ、何か面白い使い方を思いついた方がいたら、自分で作って発表してからでも良いので是非教えてください。


たとえばHTMLというもの。今はだいぶ、だいーぶマシにはなったけど、環境によって表示が崩れたりするし、レイアウトはあと一歩のツメがなかなか痒い所に手が届かないし、画像はリンクしてるだけだから全部別ファイルで、相対パスだと位置関係を崩しちゃダメ。フォントだって、見る環境によって違ってしまう。

こうしてみると、HTMLというのは、ある意図のもとに作る静的なコンテンツを作るのに、すごーく向いていない方式なんじゃないかと思う。個人的な趣味としては、例えばPDFみたいに、原則としてどこで見ても一緒に見えて、1枚の紙みたいに一つのファイルにまとまる方式の方が、ずっと精神衛生的に良い。動的に変わる部分だけリンクにするとかして。

だけど、例えばWebの検索結果のリンク先がPDFだったりすると、大抵の人はすごく腹立たしい気持ちを抱くだろう(私もそうだ)。何せ読み込みが遅く、また表示の反応もモッサリしている。ブラウザ上のPDFの動作は、とても次から次へとスピーディに情報を渡り歩く今のブラウジングの感覚にあっていない。

PDFというものは、何故か公式のAdobeのReaderの動作が重いため、すごく印象を悪くしている部分がある。しかし、例えばMac付属の「プレビュー」とか、PDF X-ChangeFoxitなんかの(HTMLほどじゃないにしろ)軽いビュアーを使うと、PDFへの印象がガラッと変わってくる。

これから電子書籍が普及してくると、コンピュータ上の静的なドキュメントを読む機会がぐっと増えるだろう。そういったコンテンツの作成には、PDF的な構造のものの方がずっと向いているはずだ。人間の感覚はコンテンツを、「沢山の部品の集合体」ではなく「一つのモノ」として捉えるのだから。

例えばこういうブログも、画像をアップしようと思うとまず画像ファイルを作成し、アップロードし、それをさらに貼るというプロセスが必要となる。だけど、文章を書いている途中に画像編集の作業をしたり、重複しないファイル名を考えたりは非常に煩わしい。コピペやドラッグで、適当にテンポラリのファイル名を作成してサーバ上に保存されて、人間側はあくまで「一つのドキュメント」だけを操作している感覚にできないか。

実は、最近人気のメモサービス「Evernote」なんかはこれに非常に近くて、中間ファイル無しにテキスト上に何でも貼りつけていけて、それが自動的にサーバの方にたまって行くので、例えばスクリーンショットを撮りながら文章を書く場合などは非常に心地よく操作が行える。

Evernoteは便利でイマドキなサービスだけど、テクノロジー的には特に新しい事をやっているわけではない。ただ、その見せ方、ユーザーの関わらせ方が非常に上手いのだ。

今現在、身の回りに当たり前に存在しているものでも、見せ方を変えるだけで新たなニーズを生みだせるものが沢山ありそうだ。

しばらく普通のツール紹介もやってなかった気がするので、たまにはお気に入りのプラグイン開発元の紹介でも。本日のネタはTAL(Togu Audio Line)、シンセからエフェクトまで、かなりの数の良質なフリープラグインをリリースしています。

これはそこそこのメーカーでもインディペンデントでもそうなんだけど、全く方向性の違うプラグインでも、開発元が同じだと同じ風合いのようなもの(明らかな音色の違いというより、ミックスするとわからない位の質感の違い)がある場合も多い。これは、開発者の好みによるチューニングも問題もあるし、部分的にソースの流用などが行われているためだろう。

TALのシンセにもしっかりその特徴があり、一番感じるのが「張りのよさ」といった感じの質感。これはオシレータの特性もあるけど、触っているとフィルターによるものじゃないかと感じる。TALのシンセは、レゾナンスを上げた時の発振音に耳につく感じが少なく心地よい。アナログシンセを模したソフトは星の数ほどあり、TALもアナログとイコールとかではないけど、レスポンスの心地よさは結構好感が持てる。

以下、何本かご紹介。

TAL-BassLine





TAL-BassLine

ROLANDの、アナログ末期のシンセ「SH-101」を模したもの。これはエンベロープが一系統しかない(VCA、VCF共用)など結構構造上の制限が多い。実記は部品点数を減らして安くするためにこの構造になったので、いくらでも贅沢できるソフトでは「わざわざチープにしている」事になるけど、こういった制限内で音作りにチャレンジすると結構良いのができる事も多い。シンプルな分、音作りの入門にもおススメ。

taluno62.JPG




TAL-U-No-62

こちらもROLANDの、アナログポリシンセのヒットモデル「Juno-60」を模したもの。この直後のDX7の登場で一気にデジタル化して行く直前の、電気電気していた頃のシンセサウンドを堪能できる。自分はこの時代は幼稚園~小学校位なので、割とはっきり記憶がある中の、リアルタイムで体験した最古のノスタルジーでもあるんだよねえ。

talelek7ro.JPG






TAL-ELEC7RO

これは何かの再現ではなく、独自設計のモノシンセだけど、サウンドの素性が凄く良いと感じる!確か2000年位に、TC Worksの「Mercury-1」というモノシンセプラグインが出た時に、その音の密度の高さに驚かされたけど(当時やはり出始めのNative Instrumentsとかよりずっと音は好みだった)、けっこうそれに通じる足腰の強さがある。

TALのプラグインに共通して一つやっかいなのが、CPU負荷が多少高い事。自分が今音楽用に使っているOpteron246x2のマシンでも、1音あたり約10%も消費する(REASONなら、100ポリ超えても楽々なのに)。U-No-62だと6ポリだから、ガンガン弾いちゃうともう一杯だ。これは、かなり「真面目に」演算をやっているんじゃないかと予想されるが(多分、それゆえの音のよさ)、サウンドにはそれを押して使うだけの魅力がある。

気軽に使えるお勧めとしては

talchorus60.JPG






U-No-62から特徴的なコーラスのみを取り出したエフェクターの「CHORUS-60」。例えばSynth1とかにこれをかけても結構雰囲気が出るので、適度にひなびた心地よいパッドとか作りたい時には是非おススメです。

フリーのDAWの中で、今一押しなのが「MU.LAB」。動作の軽さと、Win、Mac両環境対応、シンプルなインターフェース、そしてReasonやVOCALOIDと連携するためのRewire規格にも対応するなど、始めての人が「ちょっと触ってみた」後にも、しばらくの間十分メインとして使える魅力を持っている(有償の上位版も、最高で75ユーロと安いし)。

そしてMU.LABの、マニアにも嬉しいもう一つの魅力が、各トラックのエフェクトラックの中に、MAX/MSPREAKTORのように、様々なモジュールを組み合わせてエフェクトやシンセ等のパッチを構築できる機能がついている事。MU.LABではVSTプラグインもモジュールとして使えるので、複数のシンセやエフェクトを組み合わせたような複雑な音色を、まるごとプリセットとして保存しておくといった使い方もできる。これは、自分で積極的に音色作りをしたい人には大変魅力的な機能だ。

フリー版のMU.LABはトラックを4つまで(つまり4パート)までしか作れないのだが、実はMIDIチャンネルを分割するモジュールも用意されているので、シーケンサーにDomino、接続にMIDI YOKEを使い、MU.LABを音源ラックとして使うと非常に便利なのでは、と考えている。

これからちょっと色々と実験してみるので、ノウハウがまとまったら追加情報を書いてみようと思う。どうぞお楽しみに。
 
追記
なんだかこのエントリー、htmlのソースがおかしくて余計な読み込みが出ていたみたい。修正しました。失礼しました。

quartzcomposer






ちょっと映像がらみで実現したい事柄があり、良いツールは無いかと探していたら、Mac OSXに標準で付属する開発ツール「Quartz Composer」に行き着いた。今まで触ったことが無かったのだけど、予想より何倍も面白いツールでびっくり!

Mac OSXを使っている・触った事のある人は、同程度のスペックのマシン上のWindowsに比べて、画面の描画処理が滑らかな印象を受けていると思う。これは、Mac OSXの映像エンジン「Quartz」の処理能力が優れているからで、Quartz ComposerはそのQuartzの機能を、プログラムを書くこと無く利用しながら、映像をリアルタイムに処理・生成するコンポーネントを作成できるツールだ。

普段After Effectsに慣れていると、リアルタイムで、しかもCore2Duo 2GHz、グラフィックチップはオンボードという、現行では決して高性能ではないMacBookで、フルスクリーンでダイナミックに展開するような処理がリアルタイムでサクサクできるのに驚かされる。もちろん、After Effectsは意図した映像を着実に形にしていくツールなので全くコンセプトが違うが、文字通り打てば響くような反応は非常に新鮮だ。

上に載せたスクリーンショットのように、Quartz Composerはモジュラーシンセのようにモジュールを結線しながらパッチを作成して行く。この手のツールはシンセで慣れ親しんでいるし、モジュール名も「LFO」など音方面でお馴染みのものも多い。加えて、まだ試していないが、処理のソースとしてオーディオに加え、なんとMIDI信号も使えるようだ(これも、MacのCore Audioが標準で高い機能を持っているおかげ)。活用すれば、ある種の映像制作には非常に大きな武器となりそう。

色々実験しつつ、追って色々と作ったものを公開して行こうと思う。
筆者プロフィール
音楽・映像制作、原稿執筆、レクチャー等のお問い合わせ&ご依頼は、こちらのフォームからお寄せください。


大須賀 淳(おおすが じゅん)
1975年生 福島県出身

音楽・映像制作「株式会社スタジオねこやなぎ」代表取締役。音楽・映像コンテンツ作成、雑誌「DTMマガジン」他での記事執筆、After Effects等映像系ソフトの講師も行っています。

よろしければTwitterもフォローしてください。
サイト内検索
最新コメント
[11/25 Levitra compared to cialis]
[11/25 Can provigil get you high]
[11/25 Tadalafil drug]
[11/25 Standard levitra prescription]
[11/25 Buy klonopin fedex]
携帯用サイト
Powerd by Ninja Tools
ブログの記事を共有
今すぐ使える!USTREAM配信スタイル2010
今すぐ使える!USTREAM配信スタイル2010

 スタジオねこやなぎが蓄積した120以上のUSTREAM配信アイデアから、様々な業種向けに厳選した10本を収録の電子書籍。掲載されたノウハウは、ご自身、そして皆様のお客様にむけてどんどん使用して下さい!
プロが教える!USTREAM配信〜成功7つの秘孔!〜
次回開催:2010年11月5日
日本でのサービス開始前からUSTREAM配信に取り組んできたスタジオねこやなぎが、ノウハウの蓄積から見出した「USTREAM配信成功の“秘孔”(ツボ)」をセミナーで大公開!

特別な技術は必要無し。高価な機材も必要なし。7つの秘孔をピンポイントで突けば「配信したい」と思った時点でほぼ成功間違いなしという驚きの内容がそこに!

1回限定10名のみの少人数セミナーなので、ケースバイケースの内容にもスバリ回答!お申込みはお早めにどうぞ。
詳細情報はこちら

最新ニュース
株式会社スタジオねこやなぎ

音楽・映像制作、クリエイティブ分野の原稿執筆、Ustream配信、クリエイティブ系ソフトトレーニング等、是非一度お問い合わせ下さい。
かがみうさぎ「mochirythm」


ノビ〜トルズ「ノビ〜ロード」


フリーウェア・コンシェルジュ連載中
突発性難聴記

大須賀淳・著 無料
電子書籍
※パソコン、iPad他対応

「右耳で低音が聴こえない!」 音を生業とする著者にある日突如ふりかかった「突発性難聴」という厄災。廃業の恐怖に怯えながらのプチ闘病記を初公開。
NEWS

    Page Top
    CALENDaR 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30