当社のソリューション

ナビゲーションシステムとは、ヒトや搬送車両が現在の位置を特定し、ルートを計画し、目的地までナビゲートするのを支援するツールやプロセスの仕組みです。これには、位置測位、マッピング、ルート計画、ガイダンス、リアルタイム更新、ユーザーインターフェースなどの機能が含まれます。

Guide Navigation Systemをご紹介します。GuideNS™は倉庫や工場などのGPSが利用できない屋内環境で稼働するフォークリフトや自律移動ロボット向けのVisual-Inertial SLAM(自己位置推定とマッピング)ベースのナビゲーションシステムです。当社のVisual-Inertial SLAM技術は、複数のフロアや広いエリアでシームレスにリアルタイムでセンチメートルレベルの精度で3次元(3D)位置と方向を特定できます。

動作原理

当社のナビゲーションソリューションの主なコンポーネントは次のとおりです:

  • エッジデバイス - 市販のステレオカメラ+IMU(慣性測定ユニット)センサーと低消費電力組込みコンピュータを備えたリファレンスハードウェアパッケージ。
  • コアアルゴリズム - エッジデバイスで動作するVisual-Inertial SLAMベースのナビゲーションソフトウェア。ナビゲーションソフトウェアは、ローカリゼーションとマッピング、ルート計画とガイダンス、さらにはロボットプラットフォームのモーションコントロールを提供します(すべてエッジデバイス上で動作)。
  • クラウドバックエンド - バックエンドはリアルタイムでナビゲーションデータを収集・保存します。これにより、Web APIを通じてリアルタイムのストリーミングや過去のデータ検索が可能になります。また、マニュアル運転車両と自律移動ロボットの連携も実現します。
  • データ視覚化と分析 - Webブラウザベースのダッシュボードクライアントは、リアルタイムのデータ視覚化と履歴データの分析を提供します。
ユースケース(マニュアル運転vsロボット)に応じて、デバイス上およびクラウドAPIを使用して、屋内測位およびその他のナビゲーション機能をサービスとして提供します。クラウドベースの操作のためにgRPCおよびRESTを含む最新のWebベースのAPIをサポートし(例:倉庫管理システムとのインターフェース)、ロボット上のナビゲーションのためにROS(ロボットオペレーティングシステム)をサポートします。

お問い合わせより、GuideNS™の詳細情報をご要望ください。

当社のVisual-Inertial SLAM

Visual-Inertial SLAMは、カメラからの映像データとIMU(慣性計測装置)からの動きのデータを組み合わせ、環境の3Dマップを作成しながら、その中でのセンサーの位置と方向を同時に推定する先進的な技術です。カメラは映像から視覚情報を取り出し、IMUは加速度や回転のデータを提供します。この二つのセンサーのデータを組み合わせることで、Visual-Inertial SLAMは、視覚データや慣性データのどちらか一方だけを使った場合の限界を克服し、より強力で正確な位置特定とマッピングを実現します。

当社のVisual-Inertial SLAMこのアルゴリズムは、リアルタイムでの処理と低コストのハードウェアに最適化されています。ローカリゼーションは非常に高精度で、移動中にビジュアルランドマークのマップを作成し、事前に読み込むことで、厳しい環境でもセンチメートル単位の精度を実現します。当社のAGVやAMR向けナビゲーションソリューションは、LiDARやホイールオドメトリとのセンサーフュージョンを取り入れることで、車両の運転精度と効率を最大限に高めます。

当社を選ぶ理由

コアのVisual-Inertial SLAM技術は、SRI Internationalが米国政府からの多額の資金提供を受けて10年以上にわたって開発およびフィールドテストを行われてきたものです。多くのオープンソースのVisual-Inertial SLAMアルゴリズムが存在しますが、当社のソリューションは以下の要素により競合他社と比較して大きな優位性を持っていると考えています。
Twitter/XLinkedInGitHubEmail
© Guide Robotics Inc. 全著作権所有