サイトアイコン NegativeMindException

ROSでガンダムを動かす

2014年に始まった実物大ガンダムを動かすプロジェクト「ガンダムGLOBAL CHALLENGE」の成果が公開され始めた。横浜に実物大の(少し)動くガンダムが現れるんですね↓

GUNDAM FACTORY YOKOHAMA

山下ふ頭に誕生する「GUNDAM FACTORY YOKOHAMA」では実物大18mのガンダムが動き出す場面を目撃するとともに、その開発までのプロセスを体感・共有することができます。約1年余にわたって展開する予定です。

GUNDAM FACTORY YOKOHAMA スペシャルエクスペリエンス

2020年7〜8月の土・日に開催予定
オープン前の施設を特別に見学できる限定プログラムを開催します。一足早く会場に入場し雰囲気を味わえる他、特別観覧デッキ 「GUNDAM-DOCK TOWER」に登ることが出来ます。チケットは2020年4月頃より販売開始予定です。

オープン期間

2020年10月1日(木)〜2021年10月3日(日)
営業時間:10:00~21:00
有料入場

実物大のガンダムがお台場で初めてお披露目されてからもう10年以上経ったんだな。


ダイバーシティ東京 ユニコーンガンダム
2018年10月、お台場のダイバーシティ東京にある実物大ユニコーンガンダム。 使用カメラ:Nikon D200 5年ぶりに一眼レフで風景写真。 今時はiPhoneの方が解像度の高い写真、動画が撮れてしまうんだけど。。。




YouTubeでガンダムGLOBAL CHALLENGEのメイキングが更新されるのを割と楽しみにしている。



そして、この発表に合わせてシミュレーターも公開された↓



スポンサーリンク

GGCリサーチオープンシミュレーター

「GGCリサーチ オープンシミュレータ」とは

GGCリサーチ オープンシミュレータは、GGCメンバーである東京大学大学院情報理工学系研究科 岡田慧教授によるGGCプロジェクトです。
ガンダムのCGデータを用いてソフトウェア並びにハードウェアのオープンロボットプラットフォームを開発し、世界の若者が夢を持って自由にロボット開発に参加できる体制の創出と、ロボティクス分野のさらなる発展へ寄与し「リアルガンダム」の実現に繋げることを目指します。


ガンダムシミュレータプログラムの開発と共有

3Dガンダムモデルを用いたロボットシミュレーションプロジェクトを開始します。
プロジェクトに参加するユーザー(資格不問)は、GGCの管理するGGC GitHub上で公開されるROS(世界のロボット研究者に広く使われているオープンソースミドルウェア)対応のソースコードを用いて、プログラムの開発、共有を行うことができます。また,各ユーザのローカル環境においてGazeboシミュレータ(ロボットのための3Dモデルのバーチャルシミュレーションソフトウェア)を構築し,動作確認することができます。

GGC リサーチ オープン シミュレータ詳細ページ/ 3Dデータダウンロード ページ

利用規約に同意して、メールアドレス、氏名、会社・団体(任意)を登録するとシミュレーション用のガンダムの3Dデータをダウンロードできる。

WindowsでROS

今オイラの手元にUbuntuマシンは無いけど、最近はIoT向けにWindowsで動作可能なROS for Windowsがリリースされている。
https://tarukosu.hatenablog.com/entry/ROSforWindows

ドキュメントはこちら。rvizやGazeboなど、ROSのメジャーなパッケージは動かせるみたい。

たるこすさんはさっそくUnityに持って行っている(笑)





スポンサーリンク

関連記事

  • python-twitterで自分のお気に入りを取得する
  • オープンソースの物理ベースレンダラ『Mitsuba』をMayaで使う
  • OpenMesh:オープンソースの3Dメッシュデータライブラリ
  • FCN (Fully Convolutional Network):ディープラーニングによるSema...
  • Iridescence:プロトタイピング向け軽量3D可視化ライブラリ
  • ROSの薄い本
  • バンダイ HGCC 1/144 ターンエーガンダム 墨入れ・クリアーコート
  • デジタル写真のRAW現像と銀塩写真の現像の感覚
  • Manim:Pythonで使える数学アニメーションライブラリ
  • HG 1/144 ガンダムバルバトス 塗装を想定した加工
  • オープンソースの物理ベースGIレンダラ『appleseed』
  • PyDataTokyo主催のDeep Learning勉強会
  • ロボットクリエーター
  • バンダイ HGCC 1/144 ターンエーガンダム パーツの接着・合わせ目消し
  • OpenCVでカメラ画像から自己位置認識 (Visual Odometry)
  • libigl:軽量なジオメトリ処理ライブラリ
  • PGGAN:段階的に解像度を上げて学習を進めるGAN
  • PythonでBlenderのAdd-on開発
  • Windows10でPyTorchをインストールしてVSCodeで使う
  • OpenCV バージョン4がリリースされた!
  • 為替レートの読み方 2WAYプライス表示
  • MPFB2:Blenderの人体モデリングアドオン
  • Kaolin:3Dディープラーニング用のPyTorchライブラリ
  • Mechanizeで要認証Webサイトをスクレイピング
  • Google Colaboratoryで遊ぶ準備
  • 読みやすくて高速なディープラーニングのフレームワーク『Caffe』
  • 機械学習手法『Random Forest』
  • ガンダムはALSOKによって守られている
  • WordPress on Google App Engineを1週間運用してみて
  • UnityからROSを利用できる『ROS#』
  • ブラウザ操作自動化ツール『Selenium』を試す
  • Mask R-CNN:ディープラーニングによる一般物体検出・Instance Segmentatio...
  • オープンソースの人体モデリングツール『MakeHuman』のAPI開発プロジェクトがスタート
  • Raspberry Pi 2を買いました
  • 携帯電話ロボット『RoBoHoN(ロボホン)』
  • Raspberry Pi 2のGPIOピン配置
  • オープンソースの顔認識フレームワーク『OpenBR』
  • Webスクレイピングの勉強会に行ってきた
  • Pythonのソースコードに特化した検索エンジン『Nullege』
  • プラモデルのパチ組み
  • Google App Engineのデプロイ失敗
  • Rerun:マルチモーダルデータの可視化アプリとSDK
  • モバイルバージョンを終了