キーワードを入力

ユーザー ハッシュタグ
松丸頒泰
横浜と上海とパリとで、往き来しているヤスです。

プログラムの仕事と、音楽の仕事をしています。

上海で現地中国の友人とバンドを組んで年に2回上海にて音楽イベントを主催しつつ、日本、中国、フランスをアニメやダンス、音楽きっかけで紐づけるプロジェクトをこつこつ進めているのですが、世界にいる優秀なクリエイターの方々(僕を含め)が、豊かな生活を送れるように頑張っています。

よろしくお願いいたします。
See More
VALUを売買する
渡瀬浩之 2VA
Nobuki Morimatsu 1VA
阿万 広大@カロミル創業&CTO 1VA
松丸頒泰

で、次に、中国バージョンです。

松丸頒泰

中国のダンスアイドルグループのゲームプロモーション用の曲として、僕のバンドの曲が採用されました。で、これが原曲です。

松丸頒泰

Raspberry Pi + Fuzz + Touchdesigner

https://www.youtube.com/watch?v=4FshiziJeys&feature=youtu.be

松丸頒泰

Raspberry Pi + Fuzz + Touchdesigner

https://www.youtube.com/watch?v=4FshiziJeys&feature=youtu.be

松丸頒泰

BandCampで、アルバムをアップして見ましたw

https://undernil.bandcamp.com/album/re-nil

松丸頒泰

あけおめことよろ

IOTギターの進捗状況を久々にアップしようかなと。

とりあえずFuzzをラズパイに合わせて5Vバージョンで作成、歪みぐあいの可変抵抗の値をラズパイで取得して、OSCでMac book Proに送る、TouchDesigner ,Processingで受け取って映像のパラメーターに使う、というところまで、な感じです。

音と映像の感覚のずれがあるので、そこを詰めていく感じ。

まだ先は長いかなぁ。

松丸頒泰

ギターVJ開発状況。

Cで、OSCしつつGPIO制御してギターの入力を加工する部分でつまづき、pythonのラッパーがあったので、これで再度挑戦。これでできない場合、元のCのライブラリがよくない可能性があり、その場合は、GPIOの制御の部分を読み取って他のライブラリの表現に書き換えないといけない。11月中にプロトタイプ完成を目指してるんだけど、ギリギリだなぁ。ウムゥ。

松丸頒泰

日本での作業第1ステップ。ヨーロッパから取り寄せたRaspberry Piで作られたギターエフェクトの動作確認。GPIOのライブラリを入れてサンプルのコードで音がでることを確認。無事通過。次は、iPhone でOSCの送り側と、このエフェクターのほうでOSCの受け取り側を読み込んで、うまく信号のやりとりかできるかのステップ。二カ月前あたりから、プログラム言語のリミッター解除したからCでもC++でも怖くない。世界広がるわぁ。同じような事を考えてる人が調べたところ、まぁ100人ぐらいはいて、ただ僕みたいにサポジョブ無双しているのはほとんどいないから余裕で勝てる。ドキドキ

松丸頒泰

We started to customize guitar again , this time include Raspberry Pi + PHat + iPhone SE, then make OSC app, can control guitar sound like DJ, and receive data to touch designer , relate to some parameters of GLSL graphic

松丸頒泰

約二カ月半振りの上海ザパタス。今日も相変わらず300人オーバーの集客。

松丸頒泰

超有名なトロンの映画で、CGを担当した人が考えたノイズ、パーリンノイズ。ギターの歪みって、頭の長では、こんな感じの線がグチャっとした感じの延長上にあるかなと。touchdesigner が、abelton liveから、OSCで、キューやいろいろな情報を取得できることがわかりテンションが上がる。ただ、そこからただ単に静的にプログラムと音と映像を繋げても、気持ち良いとかカッコ良いとかにはまだならない。ってさっき考えてなんでなんだろうと、気づいたのは、映像にはフレームレートがあるように人間の脳にも同じような処理速度があって、耳から得た情報と視覚から得た情報が、脳内でどう順番に処理されるのかと関係があって、またカッコ良いとか美しいとかも、脳内にあるアーカイブから参照して、これイケてる!?とかの戻しをするとなると、そこのタイムラグに合わせて、脳内の処理しやすい順番に音と映像のタイミングを合わせると上手く処理できて、伝わりやすくなるんだなと。ってつきつめると、子供の頃見てた風景はきっと256色ぐらいな景色で、8ビットな世界で、大人になって苦い飲み物を美味しい感じる脳になって、フルカラーな64ビットな大人になったんだろう。その先、これからどちらかというと、また退化して8ビットに近づいて行くかもしれないけど、サイボーグになって、戸籍上死んでるけど、生きてる128ビットなモノになりたいなと。最近ずっとこっちばかりしてるから曲書きたいモードが強くなってきてて、また面白いのができそうだから温めてるフェーズ。

松丸頒泰

ここ一ヶ月でガツガツと今時と自分の今時を改めて集約し、モンモンした結果の落ち着きそうな新しいジョブに向けての環境。これにPytorchを足して、ナニカを学習させ、それをフィードバックしたい。純粋にユーザーの反応を分析するのもよし、本当にその場でフィードバックして、歌詞やコード進行に影響するとかも面白いのかなと。ってことを考えて行くと、何度でも失敗して納品できる仕事と、ほぼ一回で成功しなければならないライブな仕事って、すごいなぁと。会社を始めた当時は、社長になって、社員ができて、社員に仕事任せて、だんだん経営の方に時間を多く使って、ゴルフ接待してみたいな漠然とイメージしてたけど、全くそんなことなくて、社長自らコード書く、サーバー立てる、HTMLも書く!!みたいな一人無双をこのまま死ぬまでやるんだろうなと、というか楽しいなと決意というかそれが良いなと気づいた40代半ばであり、このまま50代も60代も70代も突き進んで行って、モノを作り続けていこうと。最後の作品は、マンガ的に、美少女ロボットとかにしたいけど、ハードウェアよりな部分、下手ではんだつけとかまだクソ下手だから、時間ができたら、そっち周りも頑張りたいが、回路図が全然頭に入ってこない。そのうちなれるんだろうか。中国語も最初はぼやけて見えてたけど、今は普通に読めるし、脳が受け入れ態勢できるまでの辛抱何だろうなと。というわけでもう少し勉強してから寝ます。おやすみなさい。

松丸頒泰

音と映像の完全同期一人プロジェクトを着々と夜な夜な進行中。で、その中で体験をアウトプット。DAWの中でOSCの送信に対応している、ableton live を使ってMIDIのNote情報を送信、受けてのtouchdesignerで、OSC INのオペレーターを作りポートを合わせて、メッセージをうける。とりあえずは、Note番号で、キックとかスネアとかを判別し分岐、映像と紐付ける。違う音色の場合は、ポートを別にして、別の送信、受信を用意して紐付ける。OSCは、まだ早熟なのか、アプリ側の環境が整っていない感じ。MIDIは確かに、他との連動は今時では無いのかなと。ちょっとMovabletypeの独自タグに近いような存在になってしまってる感もある。音と映像との連動を考えると、やっぱり、DAW側のインターフェースに、そのまま映像を紐づけて、ディレイをかけたら、映像がそのままディレイがかかるとか、歪みかけたら、映像のノイズがかかるとか。とりあえずベタな表現を音と映像で紐付けるアプリがあったらそれが正解な気がする。今の環境は、離れすぎてて、映像よりなモノは、表現が結果数学から書いた絵でしかなくて、そこに感動があるかというと、そうでも無い感じがして、かといって音のほうは、自分で波形のタイプいじって、細かい音作りできたりと、するけれども、その音が心地良かったり、踊れるような音にはならなくて、何だろう、物理と化学なのか、数学と国語なのか、ある二つの学科があって、相対しすぎているというか、その連動したところに、新しいかっこよさが眠ってると思う。ダンサー、バンドもそうかな。ダンスのカテゴライズって、それほど正確じゃなくて、結果教える先生の聞いた音楽とか好きなフリによってたり、リズムの取り方と、曲の気持ちいいポイントが違ってたり、曲を作る側からすると、そこじゃ無いみたいな、でもあったら、すげぇかっこいいという、音と映像もそんな感覚のところがある。有名なアーティストのPV見ても、これ音消して見たら、何のこっちゃっかわからん、PVが多い。それって、中の演者が有名だから成り立っている訳で、動画が素材を引き立てる役割をしていないということ。うむ。

松丸頒泰

脳内の解釈だと、音と完全に連動した映像は、心地よいはずなのだが、実際にやってみると、音を数値化した際の値の変化が激しすぎて、それを映像のパラメーターにすると、かなりぎこちなさが出ることが判明。また単音を映像と同期してイメージ化するパターンと、コード弾いた時は大きい拍でその進行にあった映像を流すのが良さそう。実際にやって見てわかることはやっぱり大きい。このあたりの調整が必要。ベロシティの変化とかとちゃんと合わせるテストとしては、フォンから入力したオーディオソースよりも、ableton liveとかからMIDIかOSCで受け取ったデータを映像のパラメータにした方が、良いのかもしれない。こういうのを一緒にやってくれるボーカルの彼女がいたらやる気効率がおそろしいぐらいに上がるんだろうなぁ。TouchDesignerとは少し仲良く慣れた。

松丸頒泰

今日は、TOUCHDESIGNERを勉強中。このあたりをひたすら漁ってるんだけど、いやぁ、20年前にバンド友達とイベントでVHSのデッキごと持って行ってやっていたようなことが今やネットとあれと、あれとか連結して色々できちゃうんだなと。とそこから妄想して、OSCとかMIDIの新企画的なモノがあるけど、MP4の次に出るか知らんが、MP5的なモノがあれば、曲の中にどこまで再生したかをパケットで送るような仕組みを用意して、それが自動集計されて、今のyoutuberのように、再生回数が多いアーティストには、その曲の前後に広告を挟めてその費用が作った本人にビットキャッシュで振り込まれるとか、できるんじゃね?みたいな。JASRACとか、ライセンス系での利益を出している企業はそういうことをして、モノ作りの人にお金が入り、その人たちの生活が豊かになるようにして欲しいなぁ。ビットキャッシュのマイニングする理論とかって、曲に何かハッシュ的な何かを紐づけたりとかって余裕でできるんじゃないかな。それに対応したプレイヤーが必要だけど。もうあれだ、石油王女の逆玉になって開発費用という名の僕の生活費用だしてもらって、どこかの国でひたすらコーディングすれば良いのかな。

松丸頒泰

ジョブチェンジに備え、max7を勉強しているんだけれども、そもそもの何かを動かす基準が、秒でミリセカンドだったりするわけで、まぁ、BPMにすると60になるんだけど、心地良いナニカって必ず、音がなっていたり、なっていなくてもリズムを感じるようなモノだと思う。ので、javascriptで、使うsetIntervalとか、基準をBPMにして、何拍目にロゴがシュッと降りてくるとか、4小節目の3拍目からおかず的に、オブジェクトが動いて、サビ的な展開に繋がるとか、そういう概念をベースにした開発環境があるとクリエィティブのオシャレ度が勝手に上がるのと、音楽の好みって人によってかなり違うから、その人によって、もっと好きなモノが増えるんじゃないかなと。色々調べた結果、max+openframeworksは、鉄板みたいなんだけど、どうせならそこにcinderか、touchdesignerか、pytorchとか、全部のせ的なこれが本当のロックなジェネレイティブアートなんだっていうのを見せつけたい目標で頑張ります。