Module2.ユーザインターフェース
俺にとって幸運だったのは、あるいは、ホワイトサーベルタイガーにとって不運だったのは、俺の体がリアルのものではなく、ゲーム設定のものだったことだろう。
そして、俺のゲーム設定の体―プレイヤーキャラクター(PC)「タク・ヨッシー」の職業はファイター(戦士)でレベルは52。
レベル10程度のPCが適正レベルであるホワイトサーベルタイガーは、「逃げる」を選択すればほぼ逃げられる相手であった。
果たして「逃げる」コマンドと同等だったのかはともかく、全速力で逃げる俺の背後でホワイトサーベルタイガーは徐々に小さくなっていき、やがて視界から消え、そして「エンカウンター表示」も消えた。
ぜいぜいと荒い息を吐きながらよろよろと立ち止り、思わず膝をつく。
この疲労感、肌を撫でる微風、踏みにじった草と泥から立ち上る匂い、それらは俺に「これが現実である」と訴えている。
だが、しかし、
「…マップオープン」
震える口調でつぶやくと、視界に地図が広がった。
赤い輝点がPCの位置を示す、ゲームのユーザインターフェースそのままの画像。
周囲の地名を読み取り、そこが「シェランド草原」というゲームスタート地点である「ル・シェラ」という都市にほど近い場所であることを確認する。
ゲームを開始したプレイヤーは、この周囲でモンスターを狩って10レベル程度までレベル上げをすることが想定されていた。
「マップクローズ」
いったいどういうことか。
座り込んでいた俺は、地面に生えている草をちぎって口に含んでみた。
…苦い。
確かに近年VR(仮想現実)の技術は大幅に発展していた。
頭につけるいわゆるヘッドマウントディスプレイは小型化軽量化無線化し、ちょっとした眼鏡くらいの大きさにまでなった。
入力した画像データのリアルタイム解析をし、映しこんだ手の動き、それとマイクからの音声を組み合わせてのコマンド入力は実用化して久しい。
俺の専門はその画像解析部分だった。
実用化したと言っても、大量のリアルタイムデータの解析はやはり重い。
特にゲームで処理が重いとユーザに嫌がられ売れない。
特定の手の動きを瞬時に解析して、コマンド入力につなげる、その動画像解析エンジンを書いたのが俺だった。
「魔法発動を手の動きでできるように、なんて無茶言いやがったよな」
数百種ある魔法が手の動きで発動する、というのはこのゲームの売りであった。
単にコマンドとして覚えるだけでなく、実際に手でその動きをなぞらないといけないという、新システム、その肝となるプログラムを書いたのだった。
だからこそ、というか、そもそもこんな技術が実現されてないことはよく知っている。
視覚・聴覚だけならともかく、嗅覚・触覚・味覚へ働きかけるデバイス(装置)などない。
いや、研究レベルならあるかもしれないが、このゲームのシステムに搭載されてはいない。
ここへ来る前の最後の記憶でも、俺が身に着けていたのは通常のマイク付きのヘッドマウントディスプレイだけだった。
一応顔や頭に手をやって、そのヘッドマウントディスプレイを探してみたが、なかった。
だが、どういう仕組みなのかわからないが、そのゲームで表示されていたメニューが目の端近くに浮かんでいる。
「…インベントリオープン」
いわゆる道具箱を開いてみると、中にはいくつかアイテムが入っていた。
上級傷薬に毒消し、攻撃力アップ(戦闘中のみ)といった見慣れたアイテムである。
試しに、HP回復機能がある「パン」を指でダブルクリックしてみる。
と、空中にパンが現れた。
一瞬空中にとどまった後、重力の法則に従って落下を開始する。
俺は慌ててそれを受け止めた。
(いったいどこに収納されているんだろう…)
深く考えたら負けなような気がしたが、疑問だった。
だいたい、これは食べられるのだろうか…恐る恐る齧ってみる。
乾パンのような味がした。