Conversation
| action["rot_axangle"] = action_rotation_axangle * self.action_scale | ||
|
|
||
| if self.policy_setup == "google_robot": | ||
| action["gripper"] = 0 |
There was a problem hiding this comment.
sticky actionについてなのですが、SimplerEnvデータで学習する場合 sticky actionはしない方が良いので、optionなどでsticky actionを指定した時のみsticky actionをできるようにするというような設定にしていただいてもよろしいでしょうか?
There was a problem hiding this comment.
追加いたしました。同時にadd-taks-prefixとして、trueの際にrobot typeのpromptを追加する仕様も追加しました。
| from g3_haptics.utils.lerobot_dataset_utils import create_g3multi_embodiment | ||
| from g3_haptics.datasets.embodiment import EmbodimentTag | ||
|
|
||
| class G3Pi0mutiLerobotToAiroaPolicy(AiroaBasePolicy): |
There was a problem hiding this comment.
修正前のverでした。修正しましたのでご確認お願い致します。
|
@yasu-nishi |
|
|
||
| proprio = eef_pos.copy() | ||
| if self.rot6d: | ||
| rpy_bridge_converted = quat_to_rot6d(torch.from_numpy(eef_pos).unsqueeze(0)).squeeze(0).numpy() |
There was a problem hiding this comment.
すみません、widowxを動かしていて気づいたのですが、こちら、一旦
proprio = eef_pos
rm_bridge = quat2mat(proprio[3:7])
rpy_bridge_converted = mat2euler(rm_bridge @ self.default_rot.T)
でrpyに変換してから、rpy_to_rot6dでrot6dに変換するべきではないでしょうか?
There was a problem hiding this comment.
確かに補正が抜けてしまっていますね。修正いたします。
|
@haru425 @yasu-nishi PR提出ありがとうございます。 前提このレポジトリに PR を出していただいているのは、Stage 1の評価に向けての開発だと考えています。 また Stage 1 の評価での提出については以下に記載されているとの認識です。
質問今回の PR では独立した評価スクリプトを作成いただいていると思いますが、これはどうやって最終評価スクリプト (おそらく2種) に反映させることができますでしょうか? eval_rot6d.py の中にロジックが結構漏れているので、「adapter / geometry / policy を使ってちょこっと書けば反映できる」というステータスではないのではないかと感じました。 最終提出物にどのような方式を採用するかはまだ流動的だと思いますので、完全に置き換える必要までは無いと思いますが、 |
|
@ymd-h さん |
・multiembodimentでのSimplerEnv試験の追加