Home > Featured > 最前線 2019年米国機械工学事情
《ニューヨーク市立大学工科校
アシスタントプロフェッサー 中村 正人氏》

最前線 2019年米国機械工学事情
《ニューヨーク市立大学工科校
アシスタントプロフェッサー 中村 正人氏》

日進月歩で成長を続けるロボテックス関連技術

ニューヨーク市立大学工科校 機械工学・工業デザイン学科
アシスタントプロフェッサー 中村 正人

 ボストン・ダイナミクス社(Boston Dynamics)が開発した二足歩行の人型ロボット、「アトラス(Atlas)をご存じだろうか? 米国国防総省の国防高等研究計画局(通称ダーパ、DARPA)監修のもと捜索救助用に作られたヒューマノイド・ロボットで、2013年にアトラスが公開された当時は、ニューヨークタイムズから、ホモサピエンスならぬロボサピエンスが出現したとまで言われた[1]。その後、二足歩行の能力を進化させ、段差に飛び乗ったりバク宙(Backflip)をする動作や[2]、野外で雪や草木のあるでこぼこな場所を歩く動作を映した動画が話題となった。2018年の秋には、走りながら丸太を飛び越え、段差のあるボックスを片足で跳ね上がるパルクールのような動作が公開され、アトラスの身体能力が、どんどんと進化しているのが注目の的となっている。[34]

 これらの進化は、3Dプリンティングで作られたパーツや小型化・軽量化された油圧関節、サーボモータなどを使ったハードウエアもさることながら、センサーやコントローラの性能が向上したことで実現したリアルタイム処理・ソフトウエアの効率化によってなせる業なのである。ソフト面においては、特に開発環境が昔と違って格段に向上している。オープンソースで利用可能な画像認識ライブラリーや、機械学習のモジュールや機能がコンポーネント化され、いちから開発する手間が省けている。例えば、私が大学で講義をしているコーディングの授業では、ひと昔前のプログラミング言語や日本の英語の授業のように、ABCや文法から入るのではなく、このライブラリーを使えばこういう処理ができるといったものを見せた後に、これを実現するにはどういったコードを書けばいいのかということをディスカッションする。そして、多くの場合、インターネット上で公開しているライブラリーを組み合わせたり、2018年にマイクロソフトに買収されたギットハブ(GitHub)のようなホスティングサイトで公開されたソースコードを参考に、自分のコードをどんどんと改良していくのだ。しかも、Youtubeにはコーディングのチュートリアルが山ほどあるので、いかに簡単に希望する処理をできるようにするかを、自分でも学べるのである。

 同じく同社が開発した犬型ロボット、「スポット」及び「スポットミニ」(Spot,Spot mini)もご存知の方も多いと思う。特に、スポットミニは小型化した四足歩行ロボットで、今年、2019年中に販売することが決まっている。このスポットミニが、恐竜の頭部を彷彿とさせるようなロボットアームを使い、ドアを開けて他のロボットを招き入れる動画[5]が話題になった。これを見たテック企業に勤務する私の友達は、「もし自分のオフィスにこんなロボットがドアを開けてぞろぞろ入って来たらこわいなあ」と言うほど、リアルというより不気味さもあるほどに斬新な機能だ。一見すると本物の犬と変わらないような歩き方だが、ロボットアームを駆使することで本物の犬以上のことができるのを実感できる。最近、商用利用を目的とした実証実験を建設現場で行っている動画も公開されている[6]。スポットミニの背中に装備されている煙突状の突起は、ライダー(LiDAR、Light Detection and RangingまたはLIDAR、Laser Imaging Detection and Ranging)と呼ばれるレーザー照射により、主に周囲の対象物・障害物の距離を測定するのに用いられてきたシステムである。最近は家庭用お掃除ロボットに採用されているものもあるが、レーザーと受光器を360度回転させ続け、周囲の状況を把握するのに必要不可欠な技術だ。しかし、近年状況は変わってきている。自動車の自動運転やロボットの自立制御に欠かせないテクノロジーであるものの、比較的高価で重量もそれなりにあるため、LiDARを搭載しない自動運転カーや自立型ロボットが登場し始めている。電気自動車を生産しているテスラ社では、運転支援システムに他社の多くが使うLiDARを搭載せず、複数の高性能カメラで代用して立体的に周囲を把握する立体画像技術を採用している。ボストン・ダイナミクス社も、複数のステレオカメラのみ搭載の自立歩行を研究し始めている[7]

 立体画像認識技術は、今後まだまだ普及する分野である。機械学習やロボットの自立走行に役立てるには、カメラで物体が何であるかを〝認識する〟ということが重要だ。カメラが捉えた画像から物体を検出しやすいように前処理をし、画像から物体を切り出し予想・学習を行うのだが、これらの処理も、先ほど紹介したオープンソースの普及により、かなりの手間が省けている。例えば、インテルが開発したOpenCVと呼ばれる画像処理ライブラリーは全てオープンソースで、ロボットに画像による機械学習を実装することができる。私の研究グループ(EESL:エネルギー・環境シミュレーン研究室)でも、ニューヨーク市の環境データをリアルタイムで取得する自立型ロボットの開発に取り組んでいるが、障害物を回避したりするには、OpenCVなどオープンソースによる画像認識技術が非常に重要になってくる。

 2019年のロボテックス関連技術は、まだまだ日進月歩で成長を続けており、今後も引き続き注目すべき分野である。

[5] 頭部のロボットアームでドアを開け仲間を案内するボストンダイナミクス社のスポットミニ
(Youtube:BostonDynamicsチャンネルより)

参考リンク
[1] https://www.nytimes.com/2013/07/12/science/modest-debut-of-atlas-may-foreshadow-age-of-robo-sapiens.html
[2] https://www.youtube.com/watch?v=fRj34o4hN4I&ab_channel=BostonDynamics
[3] https://www.youtube.com/watch?v=rVlhMGQgDkY&ab_channel=BostonDynamics
[4] https://www.youtube.com/watch?v=LikxFZZO2sk&ab_channel=BostonDynamics
[5] https://www.youtube.com/watch?v=fUyU3lKzoio&ab_channel=BostonDynamics
[6] https://youtu.be/wND9goxDVrY
[7] https://youtu.be/Ve9kWX_KXus

 

《執筆》
ニューヨーク市立大学工科校

http://www.citytech.cuny.edu/
アシスタントプロフェッサー
中村 正人氏

《企業概況ニュース2019年新年特別号掲載》