人のふり見て? ユーチューブから料理道具の使い方を学習するロボット

作業をする人の様子を見て、自分も同じように動き始めるロボットがいたらどうだろう。

メリーランド大学先端コンピュータ研究所(UMIACS)オーストラリア国立情報コミュニケーション技術研究センター(NICTA)の研究者らが、そんなロボットにつながる研究成果を出した。メリーランド大学が伝えている

この研究では、料理のビデオをユーチューブで見たロボットが、同じ動作ができるようになった。ことに料理には、モノをつかんだり腕を動かしたりという巧みな動作が含まれる。同研究のブレークスルーは、認識した動きを最良に組み合わせることで、タスクを効率的に遂行する方法をロボットが「自分で考えられる」ことだという。

この研究には、AI(独自に判断ができるコンピュータ・システム)、コンピュータ・ビジョン(かたちと動きを正確に特定するシステムのエンジニアリング)、そして自然言語処理(話し言葉を理解するシステム)の3つの分野が含まれている。内部のシステムは複雑だが、人々の生活に関係のある実用的な結果に結びつけたかったと研究者たちは語っている。

難しかったのは、質の点でも一貫性の点でもバラバラなビデオの情報を見ながら、ロボットが個々のステップを適切に分析する方法を生み出すことだったという。ロボットが明確な個別のステップを理解することで、それらを特定の動作を指令するルールに割り当て、その動作を正しい順番でつなげられるようになる。

これは、文と単語のような関係だという。個々のステップが単語にあたり、ロボットがステップの語彙を修得すれば、ステップをつなぎ合わせて文を完成、つまりゴールを達成することができる。

また、このゴール志向であるところが同研究の特化している点でもあるという。研究を率いたひとりであるメリーランド大学のイヤニス・アロイモノス教授は、「動きを真似させようとした研究はこれまでもあった。だが、この研究では、ゴールを真似させようとした」と説明している。このアプローチによって、ロボットはさまざまなステップをどう組み合わせればいいかを自分で決定するのだ。

この論文は、1月末に開催のAAAI会議で発表される。