-
Notifications
You must be signed in to change notification settings - Fork 89
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
2017 年ゼミ #1226
Comments
10/25 までの宿題。 ロボットシステムの宿題(talker/listner, 画像処理結果を受け取り描画する/cmd_vel でロボットを動かす)をeuslisp で書く。 |
|
上のコマンドを打ち込んだところ、catkin build peppereusでエラーが出ます
|
workspaceに
がはいっているかな?
としてワークスペースをwstool対応にしてから
とすると,いまのworkspaceの情報を得ることができます. |
もう一度コマンドを実行したところうまく行きました |
fetch15
rviz
rviz displays [add topic] launch simulator
|
rvizはcommon_msgs を持ってきてブランチをindigo-develにして,全部コンパイルすると大変だから,visualization_msgsだけをsrcからシンボリックリンクをはって,buildするひつようがありますね. で伝わるかな... |
scene の spot を手元で確認する方法.
map相対の位置を知る方法
spotの位置を知る方法
実機を動かすときは
でよい.(たぶん) 実機の場合
となって, Cc: @furushchev |
@koga-yu 傘を掴んでかさ立てに立てる
@Naoki-Hiraoka @takayuki5168 @dyson8910 お湯を沸かして注ぐ |
pr2の場合
kineticに対応していないというエラーが出てきたら、
|
今日は Naoki-Hiraoka@2ccb426 までできました。
|
今日は |
今日は |
koga-yu/jsk_demos@a4ae5d3 |
takayuki5168@7879152 テンプレートマッチングの実装、realsenseを用いた動作確認(jskのライブラリを使うことになったのでこれは使わなさそうですが)、pr2の環境構築をしました。 |
roskineticで、pr2(実機)をrvizで見たい場合。 |
koga-yu@2b6337e |
入口付近に移動 |
dyson8910@7a6bf9b |
今日は、Naoki-Hiraoka@c9021dc |
今日は |
今日は PR2の実機を用いて電子レンジの目の前まで移動、電子レンジを認識、電子レンジの適当な位置にアームを動かす、またeusモデル上で認識した位置に電子レンジを配置しました。 |
11月15日は、 |
(質問)
結果seq0とseq1が送信されていない。
|
@Naoki-Hiraoka 経験的には (ros::advertise "/image_time_diff/start" std_msgs::Header 10)
(ros::rate 10)
(while (zerop (ros::get-num-subscribers "/image_time_diff/start"))
(ros::sleep)) のようになるのかなと思います. |
ありがとうございます。
の代わりに
を使うとうまく行きました。 |
今日は PR2のハンドが電子レンジの扉の先に追従するようにinverse-kinematicsが解けるようになったので次回実機で電子レンジの開閉を試します。 |
今日は 傘を掴む・持ち上げる・下ろす・放すの一連の動作を実機で動かしました |
11/22は、 |
今日は |
koga-yu@9214dd1 |
dyson8910@aa31183 |
https://github.com/takayuki5168/jsk_demos/tree/54f4e64551ebebaee825331493c37a48257166f0 inverse-kinematicsを解くときにハンドの向きも動作に合うように直しました。 |
遅くなりました。11/29は、 |
12/6は、 twitter関連では、どのような経路でtopic等が流れてtweetがなされているのかをある程度理解し、 差分を計算するプログラムでは、新たに追加された物体がカメラに近いと物体に反射した光が原因で画像全体が大きく変化してしまうようなので、追加する物体はカメラから十分離すか小さくする必要があるとわかりました。 デバッグで使ったusb_camと実機のカメラではbgrとrgbが反対になっていることもあり、cv_bridge::toCvCopyの引数encodingは、opencvの保存・読み込み機能(imread,imwrite,videoCaptureなど)と合わせて使用する場合はmsg->encodingではなく"bgr8"と指定してやらないと、topicの画像がbgrかrgbかでうまく行かないことが多いと学びました。 |
koga-yu@22f9041 |
dyson8910@80e0715 |
takayuki5168@e5b5745 |
@takayuki5168 おそらく使っているカメラをもっと狭角に変えると精度がよくなるかなと思います. |
@furushchev |
@furushchev 参考までに、使用している画像認識用launch ファイルは以下です。 |
@takayuki5168 (前に聞いたことあるかも)この6cmのズレというのは認識結果そのもののズレかな?それともその認識結果をもとにeusモデルの原点を修正して、そのモデルのどこかの部位とロボットとのズレを指しているかな?
|
@furushchev 認識結果そのもののずれであっています。 |
koga-yu@7419467 |
今日は、 |
@Naoki-Hiraoka @koga-yu @dyson8910 @takayuki5168 B4 山口です。 ゼミ机に管理番号040のThinkPadの充電器が忘れられていました。 |
dyson8910@c8d666d |
https://github.com/takayuki5168/jsk_demos/tree/592cb9d6d31fb7d8aa5ddca8c54c37076c9cd34b 認識カメラをkinect_headからnarrow_stereoに変更した結果認識精度がよくなりました。 次回までにこれらのバグを取り除き再現性を上げたいです。 |
Naoki-Hiraoka@b020ee9 1.廊下の掲示板の前に移動する。 |
ロボットシステム課題提出のメールアドレス宛てに、ゼミのレポートを送りました。 |
ゼミのスライドをアップします |
ゼミのスライドを ここ にpushしました。 |
@Naoki-Hiraoka 同様メールでゼミのレポートを提出しました。 |
大村 @dyson8910
室岡 @takayuki5168
古賀 @koga-yu
平岡 @Naoki-Hiraoka
The text was updated successfully, but these errors were encountered: