replus

RE;COIL (リコイル)メンバーのarc@dmzによる日記

電脳ネタ (1)

mixi日記で去年6月頃触れた、」…というふうにで書いたけど、mixi嫌いの人には不親切だったかも。というわけで、ここに再掲。当時からまた色々事情が動いているので、あくまでこれらが去年の時点での調べ・感想という点に注意されたい。

Microsoft Silverlight、Adobe AIR、Google Gears

デスクトップをWindowsで支配するMicrosoftが「Silverlight」でWebに進出したかと思えば、 元来Web向けの技術Flashを擁するAdobeは発展形のApollo改め「Adobe Integrated Runtime」でデスクトップに逆進出。 そして、検索エンジンやAjaxをフル活用したサーバありきのWebアプリ開発で一気に巨大企業へ成長したGoogleは、「Google Desktop」に続きサーバがなくてもアプリを使える技術「Google Gears」を一般公開。

デスクトップとWeb、インターネットとローカル環境の垣根を越える様々な技術が一斉に出揃ってきた今は、とても面白い時代だと思います。

細かいところに目を向ければ、DBMS(データベース管理システム)の一種でありながら、サーバがクライアントソフトウェアに組み込まれたかたち を取る(狭義のサーバを必要としない)「sqlite」がSafari 3などによってローカル環境でフル活用されるようになってきたこともその支流の一つとして捉えられそうです。

PlaceEngine

Webがらみの技術といえば、無線電波の状況から自分がどこにいるか判断できる「PlaceEngine」が公開されています。

GPSが衛星、はるかかなた上空から位置をトップダウンに測定する技術なのに比して、PlaceEngineは近くの電波状況を積み上げて現状を把握するボトムアップの測定法です。 現在地を把握する情報源となりうるほど、どこでも電波が飛び交う時代になりました。

Apple iPhone、Microsoft Surface、TED2006

そもそもマウスとキーボードなんて細いチャネルでコンピュータを操ろうとしている点に、今のユーザインターフェースの無理があると思うわけです。 とくにマウスは一つの場所しかポイントできないけれど、人間の手は普通二本なんだから、ポイントできる場所が複数あれば(Multi-touchと言います)、もっと優れたユーザインターフェースが実現できるのは自明でありましょう。

そこで、Mac OS Xを積んだiPhoneは指2本で直感的な操作ができるようになってるし、(今秋発売) Microsoftが開発しているSurfaceは机表面が自由に触って操作できるディスプレイになってるし、(今夏お披露目) 去年2月のTED(Technology, Entertainment, Design)2006の時点ですでにそういうプレゼンが行われていたりするのです。

ユーザインターフェースは一番気になる分野なんだけど、そういう研究が「研究」としてまだまだ成立していない感じがちょっと残念ではあります。

知能ロボット学研究室、robocasa.com、miuro.com

日本のロボット産業が、産業面でも文化面でも世界のトップを行っていることは疑いようがないわけですが、そろそろロボットが傍に「いる」(≠ある)生活が当たり前に近づいてくる頃なのかもしれません。

阪大の変態教授(褒め言葉)は娘に似せたロボットを作るし、ロボットと暮らす生活をテーマにしたWebサイトや製品が出てきたし、鉄腕アトムは(まだ)いませんが、昔なら夢だった生活が今や現実となりつつあるのは確かでしょう。

複合現実と強化/拡張現実、拡張現実感プログラミング

VR(Virtual Reality/仮想現実)は、まったく別の現実が目の前に広がる技術を指しますが、本当に面白いのは、今ここにある現実が、別のリアリティと組み合わ さったり拡張されて現出する技術、MR(Mixed Reality)やAR(Augumented Reality)ではないでしょうか。

例えば、防犯カメラをハッキングして顔にアイコンを被せて匿名化したり、信号機の映像をハッキングして青信号を赤に変えたり、「現実」と「計算された現実」が混じる世界では様々な事件が起きそうです。(元ネタが分かる人は…ご愁傷様)

SF的に詳しい話は一つ目のURLに譲ります。

二つ目のURLでは、そんなARを現在の技術水準、それも家庭用PCの環境でけっこう簡単に実現できてしまうことが分かります。

Webカメラを使ってビデオチャットする人がどれくらいいるのか知りませんが、Skypeなどを使えばタダでずーっと話し続けられるビデオチャットのサービスは、確実に利用者が増えてきていることと思います。 そこで使われるWebカメラは、ある意味コンピュータの目です。 Webカメラ→コンピュータ(全画面表示)→ヘッドマウントディスプレイ、という接続を作れば、Webカメラで見ている範囲がヘッドマウントディスプレイに表示され、「視野」がWebカメラの撮影範囲と同じ意味を持つようになるのです。

この状態を作り出した上で、Webカメラの撮影した画をリアルタイムでハッキングすれば、その人が見て現実だと思っている視野をいじることができます。 URLでは、3Dでモデリングされた、あるはずがないものを映してしまう例が書いてあります。視野が傾けばそれに応じてモデリングデータも角度と位置を変えてレンダリングされるため、比較的自然に視野がハッキングされる感じを味わえるはずです。

これまでの閲覧者数:4367
トラックバック先URI:http://digitalmuseum.jp/trackback/69/

執筆者:arc@dmz

作成日時:2008/1/14 3:10:32
更新日時:2008/1/14 3:14:26
更新履歴:

1件の記事を表示