機関誌「電子情報通信学会誌」(一般社団法人電子情報通信学会) Vol.109 No.2pp.86-93

自律型ナビゲーションロボットAIスーツケースの社会実装に向けて

高木 啓伸(日本科学未来館/日本アイ・ビー・エム株式会社)
佐藤 大介(カーネギーメロン大学)
浅川 智恵子(日本科学未来館/日本アイ・ビー・エム株式会社)

1. はじめに

視覚障害は、移動障害という側面も併せ持つ。人が移動する際には、歩行者や障害物、危険な自動車や自転車などを認識・回避し、交差点や標識といったランドマークを確認しながら正しい方向に進む。しかし、視覚障害者はこうした視覚情報を得られないため、移動が非常に困難である。
人の歩行には複数の認知プロセスが階層的に関与する。本稿では、視覚障害者の歩行支援を、地図情報とランドマークに基づいたマクロなグローバル・ナビゲーションと、ミクロな障害物回避などのローカル・ナビゲーションに分けて考察する [1]。
歴史的に、視覚障害者の移動を支援するため、さまざまな手段が開発されてきた。現在も一般的に使用されている白杖は、路面やその近くの障害物、小さな段差などを確認するローカル・ナビゲーションの道具として主に用いられる。しかし、ユーザーの周囲半径1.5m程度の範囲しか確認できないことが大きな制約である。盲導犬は、障害物や段差、危険を回避する点で非常に優れたローカル・ナビゲーション補助である。しかし、グローバル・ナビゲーションの補助は非常に限定的であり、ユーザー自身が進行方向を判断する必要がある。
近年ではグローバル・ナビゲーションを補助する目的でスマートフォンのアプリを活用する視覚障害者が増えている。こうしたアプリは現在地や目的地への方向、周囲のランドマーク情報を得るために使われ、白杖や盲導犬などと併用することで効果を発揮する。画像認識やAI(視覚言語モデル、VLM=Vision Language Model)を用いて周囲の人や障害物、ランドマークを含む風景を音声で知らせるアプリも登場している。
しかし、現状ではローカル・ナビゲーションとグローバル・ナビゲーションを一貫して高精度で実行できる技術は実用化されていない。そのため、視覚障害者は常に障害物、自身の位置、音などの非視覚的ランドマークを注意深く確認し、状況を判断しながら移動する必要がある。また、白杖では正確に直進できず、徐々にずれてしまうベアリング(Veering)といった問題も、絶えず緊張感を強いる原因となっている。
そのため、ローカルとグローバルのナビゲーションを高い精度で実現し、ユーザーの認知負荷を減らすことができる手段として、ナビゲーションロボットが期待されている。ナビゲーションロボットは目的地を設定すると自律的に移動して人を誘導することができるため、既存の手段とは異なり、リラックスして移動できる、認知負荷の低い環境を提供できる。
視覚障害者向けナビゲーションロボットの構想は古くから存在し、日本でも1975年に舘らが「盲導犬ロボット」の概念を提唱し、1977年から「MELDOG」プロジェクトが進められたが、実用化には至らなかった[2,3,4]。海外でも多くのプロジェクトが実施されたが、実用化を目指した公開実証実験まで到達したものは少ない。

そこで私たちは、社会実装が可能な、視覚障害者が日常的に使用できる実用的なロボットの開発を目指し、2017年に視覚障害者のためのナビゲーションロボット研究開発プロジェクトを開始した。

図1 AIスーツケースとその構造 第5世代モデルの写真と正面図、側面図を比較している。前輪は通常のスーツケースで用いられるものを使用しているが、後輪は直径約17cmのハブモーターを用い、ユーザーが前輪を持ち上げることで3cm程度の段差を乗り越えることが可能である。

図1 AIスーツケースとその構造 第5世代モデルの写真と正面図、側面図を比較している。前輪は通常のスーツケースで用いられるものを使用しているが、後輪は直径約17cmのハブモーターを用い、ユーザーが前輪を持ち上げることで3cm程度の段差を乗り越えることが可能である。

2.AIスーツケースの開発

開発当初に参照したのは最も実用に近いサービスロボットとして評価されていたCoBotプロジェクトであった[5]。CoBotは2014年には1,000 kmの自律走行を達成していた。CoBotプロジェクトの研究者と意見交換を行い、段差や階段の昇降機能を省略して車輪による走行とすること、LiDARやRGB-Dセンサーを用いたローカル・ナビゲーションや測位の仕組みなど、可能な限り確立された技術を用いる方針とした。
次に重要となったのは操作性である。ナビゲーションロボットはユーザーと接触するため、その人間工学的な形状と、ユーザーの歩行姿勢を含めた自然さが重要なデザインの考慮点であった。そこで注目したのがスーツケース形状である。特に機内持ち込みサイズの小型スーツケースの持ち手は、盲導犬などと類似した自然な持ち手の位置となり、歩行の邪魔にもならない優れた形状である。ハンドルにボタンやセンサー、触覚提示デバイスなどを統合できる点も重要な利点であった。
さらに、ユーザーの一歩前を移動するという特徴から、前方に障害物や段差がないことを自然に確認でき、高い安心感を提供できることも大きな利点である。また、将来的な社会実装において、すでに普及しているスーツケースをモチーフにしたデザインとすることで、公共空間に自然に溶け込み、社会的受容性を高めることができると考えた。
2017–2019年にカーネギーメロン大学で基本設計やLiDAR・RGB-Dセンサーによる測位、振動提示などの基盤技術が第1世代として確立された。2020年にはデザイン性や耐久性を高めた第2世代が開発され、商業施設での走行を実現した。2022年に開発された第3世代は脱着可能な大容量バッテリーや広角認識用センサーを搭載し、安全性と安定性を大幅に向上させ、国内外のデモや日本科学未来館での定常運用を実現した[6]。並行して開発された第4世代は脱着式駆動部により屋外走行実験に対応した。そして、第5世代は大阪・関西万博での長期運用を目指し、市販スーツケースを流用せずゼロから設計された専用ロボットとして2025年に開発された。

3.技術動向

現在の視覚障害者向けナビゲーションロボットの世界における研究開発について概観する。2017年のAIスーツケースの研究開始[7]がきっかけの一つとなり、世界中で研究開発が活性化している。スーツケース形状のロボットは、ロボットとしての基本的な形状であるにもかかわらず少数派である [8][23]。
市販を目指した製品が存在するのが杖の先に車輪を付けた小型掃除機のような形をしたものである[9]。米Glidance社が開発している「Glide」(未発売)は、ハンドル一体型の非駆動車輪で前進速度はユーザーが制御しつつ、車輪の転舵とブレーキで自律誘導を行うことができる。屋内外での障害物認識、ドアや階段などのターゲット認識、事前マッピング・自発経路決定機能を実装されるとされている[10,11]。
4本足の犬型ロボットは、かつては複雑さや電力消費が問題で実用的ではなかった。しかし、Boston Dynamics社のSpotの成功で市販品が増加し、視覚障害者ナビゲーションへの応用が注目されている。グラスゴー大学ではSpotを基に「RoboGuide」を開発中で、博物館やショッピングセンターでの実証実験を経て市場投入を目指している[12,13,14]。その他、スイス[15]、スペイン [16]、中国 [17][23]、英国[18]、シンガポール[24]、そして日本 [19]でも研究が進められている。この他にも2足歩行ヒューマノイド、飛行型ドローンなどを用いた研究もある。

4.AIスーツケースの構造

4.1 本体設計

図1にAIスーツケース第5世代モデルの写真と構造を示す。上部の360度LiDARが全方位の障害物を測定する性質上、上方に突き出したデザインとならざるを得ないが、さらに上部から屋根のような構造を被せることで本体との一体感を持たせている。前・左右の3機のRGB-Dカメラは本体に埋め込まれたデザインとした。上部のLiDARセンサーでは路面から30cm程度の低い段差や障害物を認識することが難しいため、前方の低い位置にも中距離視野角LiDARを設置した。衛星測位のためのアンテナは上部LiDARの上、屋根状の構造の中に隠されている。前輪は通常のスーツケースで用いられるものを使用しているが、後輪は直径約17cmのハブモーターを用い、ユーザーが前輪を持ち上げることで3cm程度の段差を乗り越えることが可能である。また後方への転倒を抑えるための補助輪を追加した。
部品が内部に高密度で実装されているが、空冷を考慮して吸気口・排気口が設置されている他、内部に三つのファンを設置し、内部6箇所の温度計で常に内部温度を監視する機構を持つ。

4.2 ハンドル

左右中央に設置され、右利き・左利きどちらでも使えるようになったほか、高さを簡単に調節できるようになった。これまでのモデルと同様にタッチセンサーが装備されており、ハンドルから手を離すとブレーキがかかり、ロボットが停止する仕組みである。手袋をしているなどの理由でタッチセンサーが動作しない場合に備え、ハンドルから手までの距離を測定するTOF (Time-of-Flight)センサーも設置されている。
第5世代モデルから、ハンドルに方向を示す円形のディスク型デバイスを設置した。ユーザーはディスクの向きで、現在の進行方向や今後曲がる方向を認識できる。また、ロボットが停止していても、内部で左右への回避パスが計算されている場合、その状況がハンドル上のディスクに提示される。

4.3 ナビゲーション

グローバル・ナビゲーションには、これまで通り3つの地図情報が必要である。LiDAR測位用のLiDARマップは万博会場全体をLiDARスキャンすることで作成した。トポロジカル・ルートマップは、目的地や分岐点をノードとし、ノード間をリンクで結ぶことで、ロボット走行ルートを抽象化したネットワーク地図である。POI(Point of Interest)は施設・場所の情報で、各パビリオンの展示内容やレストラン情報まで詳細な情報を入力することで柔軟な音声対話での目的地選択を可能にした。
遠隔の運営者が地図情報を更新できるように、クラウド上に図2に示す地図情報エディタを設置した。これによりトポロジカル・ルートマップやPOI、ツアーの編集・登録が可能である。データは地図情報データベースに格納され、AIスーツケース本体へ配信される。
ローカル・ナビゲーションに関する処理はロボット本体で行われる。RGBデータから物体認識アルゴリズムによって周囲の歩行者を認識し、Depth(深度)センサーからの情報と合わせることで位置・移動方向・移動速度を解析する。LiDARやRGB-Dカメラにより、周囲の壁や障害物、人の位置や距離を高精度で検出する。
測位はこれまでのモデルと同様、主としてLiDARセンサーによって取得される空間の点群データを用いたLiDAR測位を用いている[20]。衛星測位は起動時などの初期位置推定のために併用している。

図2 地図情報エディタ画面例 一番下のレイヤーは通常の地図画像でありその上にLiDARスキャンデータが重畳されている。さらにトポロジカル・ルートマップ、目的地設定可能なPOIが重ねられている。黄色くハイライトされているのはツアールートに含まれている目的地である。この場合地上からエレベーターで大屋根リング上に上がりさらに移動するルートである。

図2 地図情報エディタ画面例 一番下のレイヤーは通常の地図画像でありその上にLiDARスキャンデータが重畳されている。さらにトポロジカル・ルートマップ、目的地設定可能なPOIが重ねられている。黄色くハイライトされているのはツアールートに含まれている目的地である。この場合地上からエレベーターで大屋根リング上に上がりさらに移動するルートである。

4.4 音声対話

第5世代では音声対話機能を大幅に強化した。目的地設定などの主なインタラクションはスマートフォンを用いた音声対話を通して行われる。ハンドルのボタンが音声対話のトグルスイッチとなっており、ユーザーはスマートフォンの操作なしにヘッドセット越しに音声でロボットを操作できる。
音声対話では、目的地やツアーの設定、ルート案内、周辺施設に関する質問などが可能である。音声認識・音声合成はスマートフォンによって行われ、テキスト情報が音声対話サーバーに送信され、大規模言語モデルを用いた対話を実現している。万博のパビリオンの展示やレストランなどの情報、ルートやツアーに関する情報、一般的な科学に関する情報などの情報をRAG(Retrieval-Augmented Generation)の技術で統合し、精度を向上させている。
また、視覚言語モデルを用いて周囲の状況を音声で説明する機能も実装した。あらかじめ建物などの見た目に基づいた説明情報を入力したデータベースと、その場で左、前、右の3方向のカメラで撮影した画像を用いて、周囲の状況を詳細に説明する。

4.5 開発・運用支援

万博での複数台による長期運用をサポートするため、開発・運用支援システムも開発した。まず同行するアテンダントのために、ロボットに設置されたスマートフォンと同期して状況を確認できるアテンダント用アプリを開発した。ユーザーに対する音声出力はヘッドセットを装着しているため、アテンダントなど帯同している参加者には確認できない。そのため、アテンダント用スマートフォンに常に同期して音声出力されるほか、画面にも表示する仕組みとした。また、ロボットの設定やシステムエラーの状況、LiDARによる周囲のセンシングと測位状況、計算されているパス、タッチセンサーの認識状況などをアテンダントが確認し、適切な対応が取れるようにした。
ロボット内ではナビゲーション、位置推定、画像認識、ウェブサーバー、安全制御、遠隔管理など様々なソフトウェアコンポーネントが動いている。それぞれ必要なソフトウェアライブラリのバージョンが異なるなどの問題が発生するため、Dockerコンテナを使って環境を分離し、コンポーネントの独立性を高めて開発の効率化を図っている。Dockerイメージは日本科学未来館のサーバーでビルドし、Dockerハブを介してAIスーツケースへ配信する仕組みを構築した。各ロボットのシステム更新を管理するダッシュボードを開発して20台のロボットを管理している。
またロボットは搭載したLTE回線を通じてロボットの状況を時系列データのデータベースへ逐次送信しており、データを可視化するためのダッシュボードシステムを使って、AIスーツケースの位置やバッテリー残量、内部温度等の状況を遠隔から確認できるようにした。

5.大阪・関西万博での運用

大阪・関西万博は2025年4月13日から10月13日まで開催された。会場東部、大屋根リング内のパビリオン「ロボット&モビリティステーション」(以降「ロボットパビリオン」)に受付、展示、ロボットのメンテナンス拠点を設け、開幕日から運用し、本稿執筆時点の8月後半まで継続して運用され、閉幕まで運用の継続予定である[22]。万博での運用は、予約に基づくレンタルモデルの検証として行われた。予約はシステム上で2週間前から可能であったが、視覚障害者は電話・メールで1ヶ月前から予約できるようにした。
体験当日、体験者は受付後、約15分で基本事項の説明・同意事項の確認を行い、続いて使い方の説明を受けた。図3に示すように体験走行中は常に安全確認のためのアテンダントが帯同した。アテンダントは運営協力大学の事務員と学生のアルバイトが担った。アテンダントは横または後方に1m〜2m程度離れて歩行した。アテンダントは「ロボット実証実験中」と前後に記載されたゼッケンを常に着用した。
運用を容易にするため、あらかじめ準備された数種類のルートから選択する形をとった。当初は、ロボットパビリオンを起点に近隣のパビリオンや大屋根リング上を歩行する屋外ルートを設定した。しかし、7月に入り、暑さが厳しくなったこため、日中の屋外走行はアテンダントへの負担が大きくなり、大屋根リング下の終日日陰となるルートへ変更した。さらに、7月26日からはUAEパビリオンの協力により、パビリオン内を含むルートでの運用も開始した[21]。来場者の少ない朝の時間帯に限定されるものの、屋外ルートからパビリオン内に入り、触れる展示を中心に巡ってパビリオン外に出るという一連の流れを体験できるルートである。

6.結果

6.1 運用実績

2025年8月の執筆時点で万博での運用は継続している。そのため、7月29日までの運用データに基づいて途中経過を報告する。
開始以来108日間で合計1,692件、1日あたり平均約16件の体験を実施し、合計約2,837名、1日あたり平均約26名が体験した。視覚障害者を含むグループの体験は合計311件、平均1日約2.9件であった。予約オープン後すぐに予約が埋まる状況で、視覚障害者が予約しづらい状況が発生したため、7月後半からは視覚障害者専用枠を設けた。体験時間は平均19.3分(SD=7.50)だった。

6.2 アンケート結果

体験終了直後のアテンダントによる対面インタビューと、体験終了後にWEBフォームに記入する全21問のオンラインアンケートを実施した。
オンラインアンケートの結果、体験の満足度は92.5%(5段階評価で5「とても満足した」 = 50%、4「満足した」 = 42.5%)と非常に高かった。そのうち、全盲の視覚障害者126人のうち89%(5が45%、4が44%)が、晴眼者1,394人のうち94%(5が52%、4が42%)が満足と回答した。
視覚障害者の対面コメントで最も多かったポジティブなコメントは「楽しさ・感動」、次に「安心感」に関するもので、技術や性能に関するもの、将来性や実用化に対する期待が続いた。その他、盲導犬などとの比較、親しみやすさ、使いやすさなどが続いた。
視覚障害者の対面コメントで最も多かったネガティブなコメントは「ボタンが押しにくい」「センサーやディスクが触りにくい」など主にハンドルの使いにくさに関するものであった。急停止・急発進に関するもの、「周囲に気づいてもらえない」など周囲の認知に関するものが続いた。その他には、振動、音声対話のレスポンスの遅さや正確性、街中での難しさ、稼働時間、防水、大きさ・重さ、価格などがあった。
オンラインアンケート問11「危険・不安だと感じた点」に関しては、「人や障害物の回避」が69.6%で最多、「ハンドルのディスクによる方向提示」が24.6%、操作方法22.2%、音声対話や音声案内18.8%と続いた。
オンラインアンケート問19「AIスーツケースを視覚に障害のある当事者だけでなく健常者も体験することは意義があると思いますか?」という質問に対しては、回答した健常者の94.3%が意義がある(「とても意義がある」が66.9%、「意義がある」が27.4%)と回答した。「将来視覚が弱くなった際、体験しておけば利用のハードルが下がる」「製品を知ることで街で配慮ができる」といったコメントがあり、社会実装に向けて健常者による体験が効果的であることが確認できた。

図3 視覚障害者による体験の様子(2025年5月6日大屋根リング上にて撮影) 体験者は利き手と逆の手でハンドルを持つ。白杖は視覚障害者であることがわかるように把持している。アテンダントは1mから2m程度横または後ろを歩行した。「ロボット実証実験中」と前後に書かれたゼッケンを着用している。

図3 視覚障害者による体験の様子(2025年5月6日大屋根リング上にて撮影) 体験者は利き手と逆の手でハンドルを持つ。白杖は視覚障害者であることがわかるように把持している。アテンダントは1mから2m程度横または後ろを歩行した。「ロボット実証実験中」と前後に書かれたゼッケンを着用している。

7. 社会実装に向けて

7.1 ナビゲーションロボットの必要性

万博での体験には入場料や予約などのハードルがあり、開幕前には視覚障害者が体験に来るか不安視する向きもあった。しかし実際には、ほぼ毎日視覚障害者体験者の予約が入り、1日あたり平均約2.9件の視覚障害者による予約がある状況であった。また、SNS上のコメントや体験者のコメントなどからも、社会実装への期待が高いことが改めて再認識された。
利用シーンとしては、「近所の日常的な外出」や「ショッピングモール」に対する言及が多かった。現在の技術では、あらかじめ3階層の地図を作成する必要があるため、ユーザー個々人の自宅周辺をサポートすることは難しい。後者のショッピングモールはレンタルモデルでの社会実装が可能だが、建物のオーナーやテナントの協力が必要になる。晴眼者のコメントの中には、空港や大規模病院への言及が多く、視覚障害者とのニーズの違いが示された。今後もニーズを探りながら、社会実装のプロセスを具体的に検討していく必要がある。

7.2 混雑対応と安全性

今回の万博におけるAIスーツケースの最大の技術的課題は、混雑した環境での安定走行であった。対面およびオンラインアンケートの結果から、人の多い場所での急停止・急発進、蛇行運転が不安感を抱かせた主な要因であり、ネガティブな意見の中でも多数を占めた。
人の多い環境での走行は、現在のロボット技術にとって重要な研究分野である。4月の開幕以降、来場者数は徐々に増加し、5月後半には定常的に15万人前後に達した。これにより、会場全体が常に多くの歩行者で混雑した。さらに、大屋根リング上部を除き、来場者の流れは一方向ではなく、交差する流れができやすい状況であった。また万博会場では、来場者はパビリオン間の移動を急ぐ傾向があり、また、パビリオンを探しながら歩くため、低い位置にあるロボットに気づきにくい状況があった。ロボットパビリオンに近いアメリカパビリオンやフランスパビリオン付近では、長蛇の列の位置が日々変動するため頻繁なルート修正が必要となった。
このような状況下で継続的な改良を行った。対面アンケートやログファイルの分析、現地での観察を通して、ナビゲーションや安全制御のパラメータやロジックをスムーズに進むように調整した。しかしその結果、他の歩行者のすぐ近くを通過するヒヤリハット事象の報告件数が4月から6月の6件から7月以降は22件に増加した。
一方で、実際の接触の件数は4月から6月の9件、7月以降の7件と増加しなかった。接触の理由は、ロボットが方向転換したところ歩行者が気付かなかった(3件)、速度の速い側方からの歩行者と接触した(3件)、あるいは歩行者が追い抜き時に体験者あるいはスーツケースと接触した(4件)などであった。今後、万博の会場で蓄積した人の動きの情報をもとに、周囲の歩行者の流れを認識して走行する技術などより人の動きに近いローカル・ナビゲーションのアルゴリズムの研究開発を進めていく必要がある。

7.3 社会的受容

今後のAIスーツケースの社会的受容については、概ね前向きな結果が得られた。まず、健常者が体験する意義に関するアンケート結果は非常に高い評価であった(6.2参照)。これは、健常者が実際に体験することで技術理解が深まり、受容度が高まることを示している。
一方で、視覚障害者からのコメントには課題も示されている。混雑環境下では、周囲の歩行者がもっとロボットに気づいた方が安全かつスムーズに移動できる点も課題の一つである。万博ではアテンダントがゼッケンをつけていたほか、体験者にも白杖を持つことを推奨した。ロボット側でも警告音声を発する実験なども行ったが、周囲の騒音レベルが大きい、歩行速度が速い、建物やサインを見て下に視線を向けないなど万博特有の特徴があり、顕著な効果は認められなかった。今後の社会実装に向けては、こうしたロボットやユーザー側の工夫に加えて、ナビゲーションロボットという存在の周知活動が不可欠である。
また、前述のようにヒヤリハット事象が一定数報告されており、リスクを完全に排除することは現実的に困難である。そのため、ユーザー自身がリスクを理解したうえで挑戦することを選択できる「リスクの尊厳(Dignity-of-Risk)」の考え方を社会全体で受け入れる姿勢が求められる。ただし、その際には事故発生時の責任の所在や公共空間における安全確保の優先順位、リスクを許容するための社会的合意形成、そしてユーザーが十分な情報を得て判断できる環境整備が同時に必要である。
したがって、AIスーツケースの普及にあたっては、「自由の拡大」と「安全の確保」を対立的に捉えるのではなく、両立を図る制度設計と運用が不可欠である。ロボット側の安全対策の強化に加え、ユーザーの主体性尊重、周囲の理解促進、責任・保険制度の整備などを含む包括的な枠組みづくりを、社会全体で進めることが求められる。

7.4 ユーザビリティ

ユーザビリティに関しては、アンケートの結果より、ハンドルと音声が主要な課題である。ハンドルのディスク型デバイスは評価が高かったが、タッチセンサーに触れながらディスクにも触れる必要があるため、持ちにくさを感じた体験者も多かった。ディスクを親指で触れる持ち方の場合、手の大きさによってはタッチセンサーが関節の位置に来るため、握っているつもりでも接触が弱まることがあった。人差し指でディスクに触れる持ち方の場合、タッチセンサーに薬指と小指の先で触れる必要があり、慣れるために時間がかかる欠点がある。また、どちらの持ち方でも持ちづらい体験者もいた。解決のためには、ハンドルを細くして持ち方の選択肢を増やす必要があるが、ボタン、センサー、ディスク、振動子、マイコンなどが密集して設置されている上に、持ち上げなどにも耐えられる強度を持つ必要があり難しい。機能を絞った上で、新たな設計が必要であろう。
また、音声対話システムが、スマートフォンでの音声認識後に文字列を対話サーバーに送り、その返答を待つ方式であったため、5秒程度の待ちが発生する場合もあり、ユーザビリティを下げる原因ともなった。今後は、リアルタイムAPIの利用や、スマートフォン内で動作する小型ローカルLLMの活用により、応答速度を向上させる対策が必要である。

7.5 アテンダントの必要性

万博での運用では、安全確認のためアテンダントが帯同する形で行われたが、今後は実際の社会実装を目指して、アテンダント無しの運用を実現する必要がある。万博での運用でアテンダントが行った業務は、大別すると3点であった。
指導や解説: 使い方を適宜説明し、補足したほか、ロボットが停止した理由など、ロボットの挙動について解説した。
トラブル対応: 予測しない障害物や人の影響でロボットが立ち往生した場合には、一旦手動に切り替えて場所を変え、走行を再開した。また、必要に応じてロボットパビリオンに待機しているエンジニアに対応を依頼した。
安全確認: 危険だと判断した時にユーザーに停止を指示し、周囲の人から質問があった時などは説明を行った。
指導や解説は、ユーザーが習熟すれば不要となる。トラブル対応は技術的な課題であり、将来的にはリモート監視やコントロールで対応できるであろう。技術の向上により安全確認の必要性を十分に少なくすることができれば、アテンダント無しの運用も可能になる。
今後も、アテンダント付きの実証実験を重ねて実績を重ねると同時に、アテンダントが帯同しない運用の実証実験についても同時に進めていく必要がある。

8. おわりに

大阪・関西万博でのAIスーツケース運用には、多くの視覚障害者と晴眼者が参加し、視覚障害者の移動支援における可能性と課題が明確になった。高い満足度を得る一方、混雑時の動作、操作性、音声対話の速度などの技術的な課題も明らかとなった。AIスーツケースが目指しているのは、視覚障害者に移動の自由を提供することである。これは、行きたい場所や体験したいこと、参加したい活動を本人の意思で選べる社会、すなわち自己決定権をより尊重する社会の実現にもつながる。今後は、アテンダント無しでの実用運用を目指し、技術改良に加え、社会的受容性の向上、責任体制の整備を通じて、移動の自由を尊重する社会の実現に貢献していきたい。また万博の知見を多くの研究者・開発者に活用していただけるよう、万博での測定データをデータセットとして公開することを検討している。今後も多くの方がこの分野に参入し、移動の自由が保障される社会の実現に向けて研究開発が進展することを期待している。

謝辞

本研究の遂行にあたり、ロボットの開発にご尽力いただいたICOMA社、クフウシヤ、Heroz社の皆様、ならびに運営に携わったAIスーツケースコンソーシアム会員各組織、日本IBM、清水建設、オムロン、アルプスアルパイン、日本科学未来館のスタッフ各位に深く感謝申し上げる。また、追手門学院大学のスタッフおよび学生の皆様の多大なご協力にも心より御礼申し上げる。さらに、本実証に参加いただいた多くの体験者の皆様に厚く感謝する。

文献

  1. C. Nellinger, J. M. Stürmer, and T. Koch, "A multi-layer navigation approach for interactive pedestrian flow simulation in digital twins," Proc. 15th Int. Conf. Simulation and Modeling Methodologies, Technologies and Applications (SIMULTECH 2025), no. 1, pp. 295-304, Lisbon, Portugal, July 2025.
  2. 今津 篤志, "ロボット技術を活用した視覚障がい者単独歩行支援装置",システム/制御/情報,Vol. 66, No. 3, pp. 87–92, 2022. https://www.jstage.jst.go.jp/article/isciesci/66/3/66_87/_pdf
  3. MELDOGプロジェクト概要およびMARK I–IV実験 - https://tachilab.org/en/projects/meldog.html, https://robogaku.jp/en/history/locomotion/L-1984-1.html
  4. IEEE/EMBS Outstanding Paper Award受賞(1983) - https://robogaku.jp/en/history/locomotion/L-1984-1.html
  5. J. Biswas and M. Veloso, "The 1,000-km challenge: Insights and quantitative and qualitative results," IEEE Intelligent Systems, vol. 31, no. 3, pp. 86-96, May 2016.
  6. H. Takagi, K. Naito, D. Sato, M. Murata, S. Kayukawa, and C. Asakawa, "Field Trials of Autonomous Navigation Robot for Visually Impaired People," Proc. Extended Abstracts of the CHI Conf. Human Factors in Computing Systems, pp. 1-8, Honolulu, USA, April 2025.
  7. J. Guerreiro, D. Sato, S. Asakawa, H. Dong, K. M. Kitani, and C. Asakawa, "Cabot: Designing and evaluating an autonomous navigation robot for blind people," Proc. 21st Int. ACM SIGACCESS Conf. Computers and Accessibility, pp. 68-82, Pittsburgh, USA, October 2019.
  8. 佐野睦夫, 緩利圭輔, 井上雄紀, 宮脇健三郎, & 西口敏司. (2013). 視覚障害者のためのナビゲーションロボットの開発. In 画像電子学会年次大会予稿集 2013 画像電子学会第 41 回年次大会 (pp. 65-65). 一般社団法人 画像電子学会.
  9. 大阪公立大学、視覚障がい者の単独歩行を支援する車輪付き杖型ガイドナビ, https://www.omu.ac.jp/eng/intelligent-systems/guidecane/index.html
  10. Glidance社(Webページ), "https://glidance.io
  11. "Meet Glidance, the US startup reinventing assistive technology with Glide, the world’s first self-guided mobility aid", ITU AI for Good, February 2025. https://aiforgood.itu.int/meet-glidance-the-us-startup-reinventing-assistive-technology-with-glide-the-worlds-first-self-guided-mobility-aid/
  12. IMEche,“‘Chatty’ robot guide dog describes surroundings and answers users’ questions,” Professional Engineering, London, UK, Aug. 2025.
  13. Independent,“AI-powered robot guide dogs developed for visually impaired,” The Independent, London, UK, Aug. 2025.
  14. Royal National Institute of Blind People,“Paw-sitive reception for robot guide dog could lead to new assistive technologies,” RNIB, London, UK, Feb. 2025.
  15. ETH Zurich,“Robodog,” Center for Project-Based Learning, ETH Zurich, Zurich, Switzerland, Aug. 2025.
  16. NDTV, "This Robot Dog Is Aware of traffic Signals, Can Help Specially Abled People", https://www.ndtv.com/feature/this-robot-dog-is-aware-of-traffic-signals-can-help-specially-abled-people-3741774
  17. Shanghai Jiao Tong University Research Group, "Six-Legged blind-Guide Robot Enhances the Lives of Visually Impaired Individuals in China," https://en.sjtu.edu.cn/news/4440.
  18. University of Glasgow , "Intelligent robot 'dog' leads way for the blind - and a smarter future", April 2024. https://www.gla.ac.uk/schools/engineering/international/uestc/newsletter-spring-24/headline_1046424_en.html
  19. 市川 玲也, 張 斌, 林 憲玉, "視覚環境を音声で表現可能な盲導犬ロボットに関する研究," 電気学会論文誌C(電子・情報・システム部門誌), vol. 143, no. 5, pp. 562-571, May 2023.
  20. 高木啓伸, 村田将之, 佐藤大介, 田中俊也, 籔内智浩, 粥川青汰, 木村駿介, "自律型視覚障がい者ナビゲーションロボットの普及を目指して," 情報処理, vol. 63, no. 11, pp. 1-8, November 2022.
  21. UAEパビリオン,“UAEパビリオン、視覚障がい者による「AIスーツケース」体験を初めて受け入れ,”August 2025. https://prtimes.jp/main/html/rd/p/000000016.000159438.html
  22. 日本科学未来館, “自律型ナビゲーションロボット「AIスーツケース」 大阪・関西万博での一般予約受付を開始,”April 2025. https://www.miraikan.jst.go.jp/news/press/202504113964.html
  23. Wang, L., Chen, Q., Zhang, Y., Li, Z., Yan, T., Wang, F., ... & Gong, J. (2023, October). Can quadruped guide robots be used as guide dogs?. In 2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (pp. 4094-4100). IEEE.
  24. Cai, S., Ram, A., Gou, Z., Shaikh, M. A. W., Chen, Y. A., Wan, Y., ... & Hsu, D. (2024, May). Navigating real-world challenges: A quadruped robot guiding system for visually impaired people in diverse environments. In Proceedings of the 2024 CHI Conference on Human Factors in Computing Systems (pp. 1-18).
高木(たかぎ) 啓伸(ひろのぶ)
平成11年東京大学大学院理学系研究科単位取得退学後、博士号取得.同年日本アイ・ビー・エム入社,東京基礎研究配属.以来,視覚障害者支援技術の研究開発に従事.令3から日本科学未来館副館長を兼務.理学博士.平成20年度情報処理学会喜安記念業績賞、平成23年度文部科学大臣表彰受賞.
佐藤(さとう) 大介(だいすけ)
平成年17日本アイ・ビー・エム入社,東京基礎研究配属.視覚障害者支援技術の研究開発に従事.平成23年筑波大学システム情報工学研究科博士課程修了.現在カーネギーメロン大学特任上級研究員,AIスーツケースの技術開発を主導.工学博士.平成30年山下記念研究賞,令和5年電気科学技術奨励賞受賞.
浅川(あさかわ) 智恵子(ちえこ)
昭和60年日本アイ・ビー・エム入社,東京基礎研究配属.以来,視覚障害者支援技術の研究開発に従事.平成16年東京大学大学院工学系研究科博士課程修了.平成21年技術者の最高職位,IBMフェロー就任.平成26年より米国カーネギーメロン大学客員教授を兼務.平成30年米国IBMに転籍.令和3年より日本科学未来館館長兼務.工学博士.平成25年紫綬褒章受章,令和1年全米発明家殿堂入り.

用語

  • LiDARセンサーはレーザー光を用いて周囲物体までの距離や形状を点群として高精度かつリアルタイムで計測可能な、ナビゲーションロボットにおいては自己位置推定や障害物検知に不可欠なセンサーである。
  • RGB-Dセンサーはカラー画像と同時に各ピクセルの距離情報を取得可能で、AIスーツケースにおいては周囲の歩行者の位置と移動方向・速度を測定するために用いられている。
  • TOF(Time of Flight)センサーは、赤外線の反射時間を利用して物体までの距離を高精度に測定可能で、AIスーツケースではハンドルの握り状態を検知するために用いられている。

©2026 電子情報通信学会