未来館アクセシビリティラボは視覚障害者の未来の生活を支える技術をパートナー企業や大学とともに研究開発するコンソーシアム型研究室です。

アクセシビリティラボにおける取り組みの紹介動画
ビジョン
科学技術は障害者の生活を一変させてきました。今や音声合成やモバイルデバイスは、就労や教育など視覚障害者の日々の生活に欠かせない技術です。未来館アクセシビリティラボは、先進的なAIやロボティクスの技術を持った企業や大学と協業して、視覚障害者が街を自由に移動し、身の回りの情報を認識し、自立して生活するための技術を生み出すコンソーシアム型研究室です。そしてこうした技術を、未来館をフィールドとして来館者に体験していただき、可能性と課題をともに考えることで、近未来の社会実装を促進します。
研究内容
AIスーツケース

視覚障害のある方を誘導する自律型ナビゲーションロボットです。見た目はスーツケースですが、中にコンピュータやセンサー、モーターなどが組み込まれており、障害物や人を認識してユーザーを安全に目的地まで案内することができます。AIスーツケースの研究開発を推進する次世代移動支援技術開発コンソーシアムと協力し、機能を向上させています。
現在、未来館内で定常的な試験運用を行っているほか、AIスーツケースによる誘導や音声案内をより賢くしていくための研究開発などを行っています。
研究成果
Masaya Kubota*, Masaki Kuribayashi*, Seita Kayukawa, Hironobu Takagi, Chieko Asakawa, and Shigeo Morishima (*-equal contribution). 2024. Snap&Nav: Smartphone-based Indoor Navigation System For Blind People via Floor Map Analysis and Intersection Detection. In Proceedings of the 26th International Conference on Human-Computer Interaction with Mobile Devices and Services (MobileHCI 2024).
[Paper Link]
[Project Page]
Yuka Kaniwa*, Masaki Kuribayashi*, Seita Kayukawa, Daisuke Sato, Hironobu Takagi, Chieko Asakawa, and Shigeo Morishima (* - equal contribution). 2024. ChitChatGuide: Conversational Interaction Using Large Language Models for Assisting People with Visual Impairments to Explore a Shopping Mall. In Proceedings of the 26th International Conference on Human-Computer Interaction with Mobile Devices and Services (MobileHCI 2024).
[Paper Link]
[Project Page]
Masaki Kuribayashi, Kohei Uehara, Allan Wang, Daisuke Sato, Simon Chu, Shigeo Morishima. 2024. Memory-Maze: Scenario Driven Benchmark and Visual Language Navigation Model for Guiding Blind People. arXiv.
[Paper Link]
Seita Kayukawa, Daisuke Sato, Masayuki Murata, Tatsuya Ishihara, Hironobu Takagi, Shigeo Morishima, and Chieko Asakawa. 2023. Enhancing Blind Visitor’s Autonomy in a Science Museum Using an Autonomous Navigation Robot. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (CHI 2023).
[Project Page]
Seita Kayukawa, Daisuke Sato, Masayuki Murata, Tatsuya Ishihara, Akihiro Kosugi, Hironobu Takagi, Shigeo Morishima, and Chieko Asakawa. 2022. How Users, Facility Managers, and Bystanders Perceive and Accept a Navigation Robot for Visually Impaired People in Public Buildings. In Proceedings of the 31st IEEE International Conference on Robot & Human Interactive Communication (IEEE RO-MAN 2022)
[Project Page]
触れる展示

望遠鏡や顕微鏡を使って見えなかったものを見えるようにすることは科学において重要な手法です。こうした視覚的な情報を視覚障害者が触って理解できるようにするために、「触れる」展示、特にインタラクティブに音声解説を行う展示を開発しています。
研究成果
Xiyue Wang, Seita Kayukawa, Hironobu Takagi, Giorgia Masoero, and Chieko Asakawa. 2024. Direct or Immersive? Comparing Smartphone-based Museum Guide Systems for Blind Visitors. In The 21st International Web for All Conference (W4A’24). (To Appear) [Best Technical Paper Award]
[PDF (preprint)]
Xiyue Wang, Seita Kayukawa, Hironobu Takagi, and Chieko Asakawa. 2023. TouchPilot: Designing a Guidance System That Assists Blind People in Learning Complex 3D Structures. In The 25th International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS ’23).
[Paper Link]
[PDF]
[Project Page]
Xiyue Wang, Seita Kayukawa, Hironobu Takagi, and Chieko Asakawa. 2022. BentoMuseum: 3D and Layered Interactive Museum Map for Blind Visitors. In The 24th International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS ’22), October 23–26, 2022, Athens, Greece.
[Project Page]
研究員

王 溪月
Xiyue Wang
博士(情報科学) / 日本科学未来館 研究員
視覚障害や多様なニーズを持つ人々にバリアフリーの博物館・科学館体験を提供するため、タンジブルと触覚的なユーザインターフェースの研究をしています。
キーワード:ヒューマンコンピュータインタラクション、3Dプリンティング、タッチセンシング、行動データ分析
個人ページ: https://xiyue-w.github.io/

ワン アラン
Allan Wang
博士(ロボティクス) / 日本科学未来館 研究員
AIスーツケースなどのロボットが、歩行者の多い環境で様々な社会的ルールに従いながらナビゲーションするための方法を研究しています。
キーワード:Social Navigation, Visual Navigation, Motion Prediction, Human-Robot Interaction
個人ページ: https://allanwangliqian.com/

リベイロ レナート
Renato Ribeiro
日本科学未来館 研究員
バーチャルな世界を視覚障害者にとってアクセシブルにするための研究をしてきました。現在は、歩行者の多い環境でもロボットが適切にナビゲーションするための方法を探索しています。
キーワード:ヒューマンコンピュータインタラクション、バーチャルリアリティ、ナビゲーション

上原 康平
Kohei Uehara
博士(情報理工学)/ 日本科学未来館 非常勤研究員
コンピュータによる画像認識や自然言語処理・生成の技術に基づく視覚障害者支援の研究に取り組んでいます。
キーワード:Vision and Language、画像説明文生成、コンピュータビジョン、自然言語生成、Visual Language Navigation
個人ページ: https://uehara-mech.github.io/

栗林 雅希
Masaki Kuribayashi
日本科学未来館 非常勤研究員
視覚障害のある方が、初めての場所でもAIスーツケースなどのロボットを使って行きたい場所に行き、周囲の情報を得られるようになるための研究をしています。
キーワード:ヒューマンコンピュータインタラクション、マップレスナビゲーション、Visual Language Navigation
個人ページ: https://www.masakikuribayashi.com/
過去の在籍者
オープンデータ/オープンソース
- 未来館アクセシビリティラボのメインGitHub
https://github.com/miraikan-research
- AIスーツケースプロジェクトのメインGitHub
https://github.com/CMU-cabot/
- 館内360度映像データセット
未来館内を360度カメラを用いて撮影した全周囲映像のデータセットです。
研究開発が目的であればどなたでも使用することができます。
データセットの詳細・申請について詳しくみる - 3Dモデルデータ
「触れる展示」などの3Dプリント用モデルデータをThingiverseで公開しています。
https://www.thingiverse.com/accessibilitylabmiraikan/designs
参加機関
協賛情報
日本科学未来館(アクセシビリティラボ)は、次の活動に協賛しています。
共同研究機関・研究員・実験参加者募集
未来館アクセシビリティラボでは、ともに研究する企業等の研究機関、未来館で研究開発を行う研究員、実証実験にユーザーとして参加いただける方々を随時募集しています。
- 共同研究機関募集について
- 研究員の採用について
- 実証実験へのユーザー参加ご希望の方:下記のお問い合わせフォームにユーザー参加ご希望の旨を記載の上、ご送信ください。
お問い合わせ
日本科学未来館
03-3570-9151(開館日の10:00~17:00)
お問い合わせフォーム