RE;COIL (リコイル)メンバーのarc@dmzによる日記
しかし、結局、文学や俳諧のようなものは、西洋人には立ち入ることのできない別の世界の宝石であろう。そうして、西洋の芸術理論家は、こういうものの存在を拒絶した城郭にたてこもって、その城郭の中だけに通用する芸術論を構成し祖述し、それが東洋に舶来し、しかも誤訳されたりして宣伝されることもあるであろう。
文化はその風土や教育、歴史や日常と深く結びついて、世代をまたいで伝達されるものだ。つまり両親の物理的な位置など多くの制約に束縛されて伝達する遺伝子のような性質を持ったもの──文化的遺伝子(ミーム)──であり、その環境と密接に関連づいて醸成される人文科学もまた、文化圏ごとに個別のものとなる。
何年か前の建築の権威あるお祭り、ヴェネチア・ビエンナーレで、日本ブースのテーマが「ワビ・サビ・モエ」だったことは記憶に新しい。萌えというのが日本独自の感覚で、それは侘び寂びに通じるものがあるのだ!ってな主張をしていた。
アニメといったら日本、というくらい世界的に有名な可愛らしい絵の生産圏で、そういった絵に対峙したとき想起される「萌え」という感覚・美学を、日本の伝統的なそれである「侘び寂び」と結びつけちゃう気持ちは、まあ分からないでもない。極端だけど。
これって、分かりやすい日本文化論の一つだ。
僕には萌えという新語を論じたりどうこうする気力はないが、日本で漫画やアニメが盛んになった理由なら何となく説明できる。
東京藝術大学の日本画科を今年卒業する友達がいて、彼に連れられて日本画展デートに行ったり、彼の描く絵に何らかの助言ができないかと日本画をいろいろ見て回っていて気付いたのが、日本画は「線」を大事にする、ということだった。
それに対して、西欧画は比較的「塗り」を大事にする。あまり詳しくないが、塗りだけで絵を描くのがいわゆる印象派というやつではないか。
物の輪郭をはっきり認識して描き、色の変わり目をはっきりつける、そんな傾向が日本画にはあるように思える。人間は肌理(きめ)でもって物の境界を認識する、というのが近年の認知科学の所産らしいが、要するにその境界線をはっきり見定める職人芸こそ、日本画家たちの技なのだろう。
ここで今風のイラストや漫画の絵柄に目を向けてみると、僕ら日本人はどうしても、アメコミみたいなのよりもふんわりした「萌え絵」のほうに好感を持ちやすい。
前者はぎすぎすした塗りで線をごまかしているようにも思えるのだけど、いわゆる萌え絵や漫画の絵は線をはっきり引いてあって、その引き方に迷いがなくて綺麗だ。たとえ線があまりはっきりしなくても、塗りのほうがシンプルだったり、綺麗なグラデーションだったりする。肌理の境界線がはっきりしているのだ。
とくに白黒の漫画で見ると差が分かりやすい。アメコミはカラーで読まれることが多く、塗り方を工夫し、肌理をリアルにして魅せることだってできるが、白黒の漫画はそうはいかない。トーンを貼って肌理を表現する技術は確かに優れているが、それでも、トーンの境界線ははっきり見えるし、真っ黒に書かれる輪郭線は誤摩化しようがない。
(個人的には「さよなら絶望先生」を書いている久米田さんは線画の極致だと思う。あと「放浪息子」の志村さん。「イエスタディをうたって」の冬目さんは迷い線がたくさん残った絵を描くけど、それでもその線の集積が逆に心地いい。脳が、その線たちの中から一番自然なものを選びとって補完するのだろうか。)
その線をどう描くか、実際の人のかたちをデッサンした絵柄から漫画やイラストの線に落とし込んでいく作業は、いわゆるデフォルメーションである。デフォルメして情報量を落とし、なおも、ものごとの本質を捉えようとする。情報量を落とすことは、読者・観客の想像力に頼り、本質を剥き出しにする積極的な試みと言うこともできよう。
冒頭で引用した「生ける人形」は、前半、人形劇の評論が載っている。
もともと男は決して女にはなれない。それだから女形の男優は、女というものの特徴を若干だけ抽象し、そうしてそれだけを強調して表現する。無生の人形はさらにいっそう人間の女になれるはずがない。それだからさらにいっそうこれらの特徴を強調する。その不自然な強調によって「個々の女」は消失する代わりに「抽象された女それ自体」が出現するであろう。
この言い草は、そのまま絵のデフォルメにも当てはまる。そして、人形劇にしても絵にしても、情報量を落としながらその本質を表出させる表現こそ、日本人が得意とする芸術ではないか。
さらに寺田はこう続けている。
この抽象と強調とアクセンチュエーションは、人形の顔のみならず、その動作にも同じ程度に現われる事はもちろんである。
先の描写が絵のデフォルメに対応するなら、こちらはアニメーションに対応する。日本のアニメが「萌え」なのは、日本「的」なアニメーターの職人芸あってこそなのだろう。
以上、大雑把に書いてきたように、日本画や人形劇に見て取れる特徴が漫画やアニメに受け継がれ、現代の日本文化として興隆を極めているというのが、僕の見方である。
さて、先日、爆笑問題のニッポンの教養で、VRを研究する舘教授と爆問の太田が、現実を映す表現について意見を交わしていた。
要旨のみ抜き出せば、太田曰く、芸術は、世界を映す鏡のようなもので、何か世界の中で表現したいできごとがあったときに、それをそのまま伝えることができない場合、無理にリアルに再現するよりも、いったん頭の中に叩き込んで咀嚼し、芸術という一種の言語を借りて言い直したほうがよく伝わるのではないか──ということだった。
僕は、この太田の主張が至極真っ当に聞こえ、また、前から考えていたことにより確証を深めた。つまり、世界内の事物を描写するには、世界内の、その事物以外のものはもとより代替物として役不足であること、その描写を成し遂げるためには、世界内で解明できない不思議な魅力をはらんでいる、音楽などの芸術に頼るのが真っ当な試みであること。
そもそも芸術は、現実にあるものを頭の中にインプットした時点で仮想的なものなのだ。つまり、創作活動は、現実のものを現実の作品として伝えるときでも、間に人間の頭の中を挟んでいる限りにおいて必ず仮想的である。
そして、この芸術をなす方法論として、これまで日本文化圏ではデフォルメが有力視されてきたのではないだろうか。現実にはあり得ない関節、現実にはありえないプロポーション、アニメや漫画は、とにかく仮想のもので現実の概念を描くことに注力してきた。それらは人々の目に極めて魅力的に映り、成功を収めてきているようである。
ここから、いきなりコンピュータの話に移る。
欧米でシミュレーションというと、必ずと言っていいほど地球をシミュレートするという話題になる。地球の重力をシミュレート、よりリアルな霧をシミュレート……3DCGを用いたゲームでシミュレーションのエンジンが優秀であると評価を受ける場合、地球をどれだけコンピュータ上で再現できるかが評価の要になっている。
つまり、よりリアルなバーチャルワールドをコンピュータ上に作ろうとしているわけである。アバターの顔や体型がリアルすぎて気色悪い、と日本ではウケなかったSecond Lifeしかり。
はて、リアルなバーチャルワールド?おかしくないか??
そう、僕にはこれが可笑しくてたまらないのだ。その学術的有用性は認めよう。現存する多くの物理演算エンジンは酔狂としか思えないほど優秀だし、そういった研究は実際の地球にフィードバックできる。だから、研究予算だってつく。当たり前だ。
だけど、どうしてバーチャルな世界でリアルを追求しなくちゃならないのだろうか。僕は、バーチャルな世界はもっと人間の欲求に忠実であっていいと思う。みんなで遊ぶRPGみたく、けっこうな人数を廃人にしたバーチャルもあるけれども、それでは生温い。
もっと廃人を桁違いに増やしかねないほど素敵な、芸術的なバーチャルワールドがあって然るべきだろう。(あれ?ニコニコ動画ってこれ?)
ちょっと話が行き過ぎたけれど、芸術の本質に立ち返ってバーチャルを考えてみたら、そこは地球の法則、宇宙の法則に縛られずに色々な表現ができるかなりすごい場のように思えてくる。実際、アニメにしたって最近はコンピュータの技術をフルに駆使して作られているけど、もっと多様な可能性があるはずなのだ。
そこで提案してみたいのが、僕らの法則に従ってシミュレートされる3DCGの世界。3DCGを描くエンジンまでは宇宙の法則に従うことにして(そうしないとAR=Augmented Realityに応用できない!)、他の物理特性やアニメーションの部分については、全く別の法則を導入してみたらどうだろう。
たぶん、欧米の人たちは地球をシミュレートすることに手一杯で、2.5次元の可能性とか、そういったことに比較的無頓着だと思う。でも、日本の情報科学に携わる人たちは、日本らしい研究をしてみても、いいのではないか。実際上は、それを自由にできる環境があるかどうかが、問題なのだけど。
僕は日本で情報科学を学んでいる。だから、この野望の第一歩として、アニメーションを比較的簡単に記述できる言語とその通信用プロトコルの仕様化をもくろんでいるわけ。技術的にはまだまだ稚拙だけど、色々考えを巡らせながら、(自分の居場所を探しながら、)僕にしかできないプログラム作り、メディア作りをしていきたい。
「mixi日記で去年6月頃触れた、」…というふうに前の記事で書いたけど、mixi嫌いの人には不親切だったかも。というわけで、ここに再掲。当時からまた色々事情が動いているので、あくまでこれらが去年の時点での調べ・感想という点に注意されたい。
Microsoft Silverlight、Adobe AIR、Google Gears
- http://www.microsoft.com/silverlight/
- http://labs.adobe.com/technologies/air/
- http://gears.google.com/
デスクトップをWindowsで支配するMicrosoftが「Silverlight」でWebに進出したかと思えば、 元来Web向けの技術Flashを擁するAdobeは発展形のApollo改め「Adobe Integrated Runtime」でデスクトップに逆進出。 そして、検索エンジンやAjaxをフル活用したサーバありきのWebアプリ開発で一気に巨大企業へ成長したGoogleは、「Google Desktop」に続きサーバがなくてもアプリを使える技術「Google Gears」を一般公開。
デスクトップとWeb、インターネットとローカル環境の垣根を越える様々な技術が一斉に出揃ってきた今は、とても面白い時代だと思います。
細かいところに目を向ければ、DBMS(データベース管理システム)の一種でありながら、サーバがクライアントソフトウェアに組み込まれたかたち を取る(狭義のサーバを必要としない)「sqlite」がSafari 3などによってローカル環境でフル活用されるようになってきたこともその支流の一つとして捉えられそうです。
PlaceEngine
Webがらみの技術といえば、無線電波の状況から自分がどこにいるか判断できる「PlaceEngine」が公開されています。
GPSが衛星、はるかかなた上空から位置をトップダウンに測定する技術なのに比して、PlaceEngineは近くの電波状況を積み上げて現状を把握するボトムアップの測定法です。 現在地を把握する情報源となりうるほど、どこでも電波が飛び交う時代になりました。
Apple iPhone、Microsoft Surface、TED2006
- http://www.apple.com/iphone/
- http://www.microsoft.com/surface/
- http://jp.youtube.com/watch?v=UcKqyn-gUbY
そもそもマウスとキーボードなんて細いチャネルでコンピュータを操ろうとしている点に、今のユーザインターフェースの無理があると思うわけです。 とくにマウスは一つの場所しかポイントできないけれど、人間の手は普通二本なんだから、ポイントできる場所が複数あれば(Multi-touchと言います)、もっと優れたユーザインターフェースが実現できるのは自明でありましょう。
そこで、Mac OS Xを積んだiPhoneは指2本で直感的な操作ができるようになってるし、(今秋発売) Microsoftが開発しているSurfaceは机表面が自由に触って操作できるディスプレイになってるし、(今夏お披露目) 去年2月のTED(Technology, Entertainment, Design)2006の時点ですでにそういうプレゼンが行われていたりするのです。
ユーザインターフェースは一番気になる分野なんだけど、そういう研究が「研究」としてまだまだ成立していない感じがちょっと残念ではあります。
知能ロボット学研究室、robocasa.com、miuro.com
日本のロボット産業が、産業面でも文化面でも世界のトップを行っていることは疑いようがないわけですが、そろそろロボットが傍に「いる」(≠ある)生活が当たり前に近づいてくる頃なのかもしれません。
阪大の変態教授(褒め言葉)は娘に似せたロボットを作るし、ロボットと暮らす生活をテーマにしたWebサイトや製品が出てきたし、鉄腕アトムは(まだ)いませんが、昔なら夢だった生活が今や現実となりつつあるのは確かでしょう。
複合現実と強化/拡張現実、拡張現実感プログラミング
- http://bp.cocolog-nifty.com/bp/2007/05/mixed_reality_l.html
- http://www1.bbiq.jp/kougaku/ARToolKit.html
VR(Virtual Reality/仮想現実)は、まったく別の現実が目の前に広がる技術を指しますが、本当に面白いのは、今ここにある現実が、別のリアリティと組み合わ さったり拡張されて現出する技術、MR(Mixed Reality)やAR(Augumented Reality)ではないでしょうか。
例えば、防犯カメラをハッキングして顔にアイコンを被せて匿名化したり、信号機の映像をハッキングして青信号を赤に変えたり、「現実」と「計算された現実」が混じる世界では様々な事件が起きそうです。(元ネタが分かる人は…ご愁傷様)
SF的に詳しい話は一つ目のURLに譲ります。
二つ目のURLでは、そんなARを現在の技術水準、それも家庭用PCの環境でけっこう簡単に実現できてしまうことが分かります。
Webカメラを使ってビデオチャットする人がどれくらいいるのか知りませんが、Skypeなどを使えばタダでずーっと話し続けられるビデオチャットのサービスは、確実に利用者が増えてきていることと思います。 そこで使われるWebカメラは、ある意味コンピュータの目です。 Webカメラ→コンピュータ(全画面表示)→ヘッドマウントディスプレイ、という接続を作れば、Webカメラで見ている範囲がヘッドマウントディスプレイに表示され、「視野」がWebカメラの撮影範囲と同じ意味を持つようになるのです。
この状態を作り出した上で、Webカメラの撮影した画をリアルタイムでハッキングすれば、その人が見て現実だと思っている視野をいじることができます。 URLでは、3Dでモデリングされた、あるはずがないものを映してしまう例が書いてあります。視野が傾けばそれに応じてモデリングデータも角度と位置を変えてレンダリングされるため、比較的自然に視野がハッキングされる感じを味わえるはずです。
2008年1月の記事を全3件中1件目から計2件表示
© arc@dmz 2007