
今作ってるギターの名称を仮で、「GENERATIVE VISUAL GUITAR」にして、そのアルファ版の開発がほぼ終わりに近づいているんだけれども、次のバージョンは、ギターのリフを弾いた時の「ズンッ!!」って感じを拾って、映像にもそのタイミングで「ズンッ!!」ってさせたいから、ピックアップから直接音の信号を受け取って、ADコンバーターでデジタルに変換し、SPIでラズパイで受け取れるんじゃ無いか、妄想をさっきまで色々なサイトをみて調べてた。多分行けそう。
「リズム」「音に対するエフェクトのかかり具合」が映像をリアルタイムで変換させるパラメーターになれば、アーティストがPVをライブの際にリアルタイムで作ってしまう、というような演出・パフォーマンスができると思う。
僕の中では、アニメが大好きすぎて髪型とか服とか真似してから、「コスプレ」というそこだけそぎ取った文化ができた、と同じように、ライブももっとアニメっぽい、非現実的な表現、PVで作っている世界をライブそのものに持ってこれる時代が来る、と考えている。
僕が作っているギターは、そのいわば超プロトタイプ。
それと、AIネタ。先日先輩のライブをみに行ってその対バンが同期をしてたんだけども、同期って、あらかじめ打ち込んでおいたテンポでしか再生できないんだけど、これをライブの最中にドラマーのバス、スネアを検知して、そのBPMに自動でフィットして、再生してくれる、という分野で活躍しそうかなぁと。
まぁ、とりあえずはギターに集中してコツコツ作り上げよう。
写真は、最近使っているADコンバータ。
8チャネルあるから、ピックアップ、ボリュームとか含めると結構あれこれできる。
おやすみなさい。明日の夜は羽田から上海です。