We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Kuan Fang1,2, Yunfei Bai1, Stefan Hinterstoisser1, Silvio Savarese2, Mrinal Kalakrishnan1
1X, Mountain View, CA 94043 USA 2Stanford University, Stanford, CA 94305 USA
ICRA 2018
PDF
ロボットの manipulation に対する学習ベースの取り組みは,データ収集やラベル付けのコストのために,制限されたものとなっている. 本論文では,シミュレーション上での実験を活用して,散らかったシーンにおけるインスタンス把持のための,multi-task domain adaptation framework を提案している.本論文のニューラルネットでは,単眼のRGB画像とターゲットの物体のインスタンスセグメンテーションマスクを入力として,各モーターコマンドの候補についてその把持の成功確率を予測している.ネットワークは,シミュレーション上のインスタント把持を用いて学習し,転移する際に domain shift を緩和するために,仮想空間と実空間の両方から得られる物体を区別しない把持(⇔インスタンス把持)のデータを用いている.
July 20, 2018
The text was updated successfully, but these errors were encountered:
No branches or pull requests
INFO
author
Kuan Fang1,2, Yunfei Bai1, Stefan Hinterstoisser1, Silvio Savarese2, Mrinal Kalakrishnan1
affiliation
1X, Mountain View, CA 94043 USA
2Stanford University, Stanford, CA 94305 USA
conference
ICRA 2018
link
PDF
概要
ロボットの manipulation に対する学習ベースの取り組みは,データ収集やラベル付けのコストのために,制限されたものとなっている.
本論文では,シミュレーション上での実験を活用して,散らかったシーンにおけるインスタンス把持のための,multi-task domain adaptation framework を提案している.本論文のニューラルネットでは,単眼のRGB画像とターゲットの物体のインスタンスセグメンテーションマスクを入力として,各モーターコマンドの候補についてその把持の成功確率を予測している.ネットワークは,シミュレーション上のインスタント把持を用いて学習し,転移する際に domain shift を緩和するために,仮想空間と実空間の両方から得られる物体を区別しない把持(⇔インスタンス把持)のデータを用いている.
得られる物体を区別しない把持(上)とインスタンス把持(下)のサンプル
date
July 20, 2018
The text was updated successfully, but these errors were encountered: