知能技術株式会社 | 技術情報

お問い合わせ

大阪 06-6362-1008
東京 03-6869-5103
Mail:info@chinou.co.jp
[受付時間]
電話 平日 9:00~18:00
メール 24時間 受付
  • 日本語
  • English
  • Français
  • 中文 (中国)
  • MENU
    ページトップ画像

    AIでロボット制御

    当社は一般的なWebカメラで手の形を認識して、ロボットの基本的な動作を制御する機能を実証するシステムを開発しました。

    このシステムはAIとロボット制御部の2つのユニットによって構成されます。AIはWebカメラの映像を解析し、映っている手の形を認識します。また、ロボット制御部は認識した手の形の情報を受け取り、対応する動作をロボットに司令します。ロボットとAIは完全に独立して動作しており、お互いの情報伝達は無線通信によって行われます。

     

    ロボット制御システムのダイアグラム

    画像分類を行うAIのモデルにはResNet50を使用しました。ImageNetの学習データをロボット制御用に移転学習し、手のデータセットでファインチューニングしました。ここで用いたAIモデルは3200万パラメータのニューラルネットワークで構築されています。GPUにGeForce GTX 1080 Tiを用いたPCで処理させると、1サイクル20ミリ秒以下で手の形を認識することができました。このようにとても素早く認識できるので、ロボットをリアルタイムに制御することが可能です。

     

    また、実証システムをより小さくて安いRaspberry Pi 3に載せるために、AIのモデルを10分の1程度小さなものに改造してみました(330万パラメータ)。それでも、Raspberry Piには前述のGPUのような処理性能は無いので、Raspberry Piでの処理時間は1サイクル1秒でした。リアルタイムとまでは行きませんが、それほど応答速度を必要としないシステムであれば十分利用できます。

     

    【注記】

    AIの構築には約7万枚の手の画像(学習:検証=6:4)で構成したデータセットを使用しました。学習後の検証データの正解率は96%以上になりました。ところが、成人男性3人の手の写真を使用してデータセットを作成したので、子供や女性の手ではやや認識率が低下します。このことは、現行のAIが与えたデータセットに特化してしまい、学習した以外の手に対応しにくくなっていることを意味します。

     

    これを改善するには、データセットに含まれる冗長な(あるいは似ている)画像を削除し、サイズや形状、色など、多数の異なる手の画像や様々な背景における手の画像をたくさん追加して再学習する必要があります。