7. 物体操作 & 自由度(Degree of Freedom (DOF))
物体の位置を一意に決める情報:
物体の座標: x, y, z
物体の姿勢: α, β, γ
物体を操作するための
最小の自由度は6
*必要とされる自由度はタスクに依存
e.g. 書字: 3自由度
(q1, q2, q3, q4, q5, q6)
α
β
γ
x
y
z
X
Y
Z
O
O’
X’
Y’Z’
q1
q6
q3
q4
q5
q2
7
24. e.g. Roomba
単純化
モータ
センサ
Subsumption architecture[1] (行動規範型A. I.)
[1] R. Brooks, “A robust layered control system for a mobile robot,” 1986.
身体性人工知能(Embodied Artificial Intelligence)
Credit: iRobot Corporation
24
30. シミュレーションと実世界との差異の低減
“Domain Randomization for Transferring Deep Neural Networks from Simulation to the Real World,” IROS2017
シミュレーション時に画像の色情報を
複数変更することで,実世界でも対応
課題:
環境との相互作用を行うようなもので
はシミュレーションとの差異が顕著に
出る
e.g. 把持,二足歩行
30
31. 31
実機での試行回数の削減(シミュレーション+実機)
“Using Simulation and Domain Adaptation to Improve Efficiency of Deep Robotic Grasping,” 2017
https://arxiv.org/abs/1709.07857
https://www.youtube.com/watch?v=-k0MdN7vW_M
実機とシミュレーションを学習
に使用することで,実機での
試行回数を削減
32. “Learning Complex Dexterous Manipulation with Deep Reinforcement Learning and Demonstrations,” 2017
https://arxiv.org/abs/1709.10087
試行回数の削減(教師あり+強化学習)
人の実演データから次の動作
を真似るポリシーを学習し,そ
こから強化学習すると学習時
間と試行回数を大幅に削減
https://www.youtube.com/watch?v=jJtBll8l_OM
32
33. 未知な環境への即時対応能力
"Map-based Multi-Policy Reinforcement Learning: Enhancing Adaptability of Robots by Deep Reinforcement Learning,” 2017,
https://arxiv.org/abs/1710.06117
Under review in ICRA2018
未知な環境,身体モデルの
変更で対して即時に対応
異なる方策を保存しておくことで実現
https://www.youtube.com/watch?v=qcCepAKL32U
PFN
33
35. 今後の展望:マルチモーダル学習
"Interactively Picking Real-World Objects with Unconstrained Spoken Language Instructions,” 2017,
https://arxiv.org/abs/1710.06280
Under review in ICRA2018
e.g. 自然言語+ロボット
曖昧な言語指示に対して,
聞き返しを行うアプローチ
https://www.youtube.com/watch?v=_Uyv1XIUqhk&t=19s
PFN
35