交通弱者のためのAR技術を用いた大型複合施設のナビゲーションアプリの開発と検証
崇城大学 工学部建築学科 古賀 元也
交通弱者,車いす使用者,大型複合施設内の移動支援,AR技術,アプリの開発,実証実験
(研究目的) (研究手順) 以下の方法で研究を進めた。@サクラマチ施設内にある視覚情報サインについて位置や種類を調査し,図面上に整理した。A施設に併設されている公共交通『熊本桜町バスターミナル』のバス乗り場へのアクセスのしやすさについて視覚情報サインの配置計画を基に分析,考察した。Bサクラマチおよびバスターミナル全体を3Dスキャンし,3Dマップを作成した。C3Dマップ上にノードとリンクを配置し,健常者用,交通弱者用の経路探索のアルゴリズムを組み込んだ。D対象エリア内のどこからでも空間認識し,自己位置推定するシステム,SiMTを開発した。ESiMTにおける自己位置推定および経路探索を検証し,本研究をまとめた。 (研究成果) 【1】サクラマチの現状分析,目的地に向かう経路の分かりやすさ サクラマチ地下1階から5階までと熊本桜町バスターミナルのフロアに掲示されている視覚情報サインについて目視調査した(2021年5月〜7月の間の4日間)。調査後,視覚情報サインについて@案内サイン,A誘導サイン,B位置サインに分類した。案内サイン,誘導サインはテナントが多く集まっている地下1階〜3階に10箇所以上見られた。案内サインはすべての出入り口付近に設置されており,誘導サインは施設内全体に十分に配置されていた。特にバスターミナルには案内サイン97箇所,誘導サイン124箇所と,商業エリアに比べて多く設置されていた。 サクラマチおよびバスターミナルの案内サインおよび誘導サインの配置は今回設定したシナリオにおいては健常者に対しては十分な配慮ができていると思われるが,その一方でエスカレーター,階段が使用できない交通弱者にはやや分かりにくい場面が見られた。その対策として施設側は仮設的な案内サイン,誘導サインを立地するこ とで改善を図っていたり,2階の各バスターミナルの乗り場に分かれる中央の場所にインフォメーション・センターを配置することで施設利用者にスタッフが直接誘導するなど対策が取られている。しかし,商業エリアと公共交通機関がひとつになった複合施設では買い物をする利用者,公共交通機関の利用者など目的が異なるため,目的地が分かりにくい場合も想定される。また,多くのテナントがある商業エリアではサインに加えて季節ごとの展示や広告も設置されていることから,サインを増やすことは容易でない。そこで我々は既存の案内サイン,誘導サインに加え,新たな情報支援ツールとしてAR技術を活用したナビゲーションアプリを施設利用者に提供することで, 目的地までの誘導を支援することが可能となる。 【2】ナビゲーションシステム“Smart Info. & Mobility Town(SiMT)”の開発 SiMT は複合商業施設であるサクラマチとバスターミナルをモデルケースとしており,3Dマップとスマートフォンのカメラ機能によって現在地から自己位置推定を行い,その場所から目的地までの経路を探索する。このシステムでは,AR 技術を用いており,スマートフォンのカメラ機能によって映し出される映像に,経路を示す矢印と目的地のマーカのCGモデルが投影され,ユーザーをナビゲーションする。 ユーザーはシステムを起動後,スマートフォンのカメラ機能を用いて周辺をかざすことにより,事前にスキャンした3Dマップ上から自己位置を推定する。プロトタイプモデルでは,サクラマチの2階フロアの一部を対象としており,スタート地点を1箇所に固定していたが,本研究で開発を進めたSiMTは施設内すべてを対象としており,施設内すべての場所からスタートすることができる(目的地も5箇所から237箇所とした)。また,SiMT は健常者だけでなく,車いすやベビーカー利用者,高齢者などの交通弱者の支援を目的としており,提示する経路では,最短経路に加え,階段,エレベーターを使用しない経路を選択することができる。 自己位置推定の精度を検証するため,アプリを使用してサクラマチ クマモト2Fテナント24番からテナント2番までを歩く実験をして,@その経路でのクエリ画像(この実験で得た画像であり位置情報は持っていない)とA画像データベース(アプリに格納されている3Dマップのデータベース)の2つの特徴点を照合し,自己位置推定した。検証で用いたデータは3つあり,@-A:実験で歩いた際に生成された3Dマップデータであり(位置情報はある),これが真値となる,@-B:実験で歩いた際のクエリ画像(アプリを使用してスマートフォンの画面から抜き出した特定の場所の画像で位置情報はない※図ではスターバックスのロゴの前),A画像データベース(アプリに格納されている3Dマップのデータベース)である。検証では,まず,『実際に歩いた@-Aのローカルマップ』と『画像データベースのAのグローバルマップ』から手動で位置合わせすることで,実際に歩いた場所を算出し,特定した(グレーの立方体,これが真値となる)。次に『実験で歩いた際にアプリで収集した画像(クエリ画像,ここではスタバのロゴ)の撮影場所』を『画像データベースのAのグローバルマップ上の画像群』と特徴点をマッチングすることで自己位置推定し,特定した(赤の立方体)。撮影場所の特定にはクエリ画像から『画像データベースのAの情報』にある位置情報(青の立方体)を基に算出している。赤の立方体(場所を特定したクエリ画像)とグレーの立方体(真値)の位置情報の誤差が小さかったことから,高い精度で自己位置推定ができたことが分かった。 |