Event report
2020.5.27
FabCafe編集部
これまでアニメや漫画などのフィクション作品の中では、さまざまな形のロボットが描かれてきました。ひと昔前までは“未来の象徴”とされていたロボットですが、掃除ロボットをはじめとする家庭用ロボットの登場などによって、現代ではかなり身近な存在になりつつあります。また、どこか無機質で硬いイメージが強いロボットですが、生物の動作・構造・感覚などの働きを取り入れた“やわらかいロボット”を研究する『ソフトロボティクス』と呼ばれる分野では、柔軟かつ有機的な構造を持った斬新なロボットの開発が進んでいます。
この『ソフトロボティクス』について学びながら、未来のロボットの“かたち”について参加者全員で考える場として誕生したのが、滝戸ドリタさんとFabCafe MTRLがオーガナイザーを務める《SOFT ROBOTICS Collective 生命と機械の学校》。2020年1月26日に開催された「生き物から学ぶ、しっぽから考える、これからのロボティクス。 Talk Session」のレポートをお届けします。
text : 林みき Photo & Video : 冨田了平
動物と人間とロボティクスの共生
第2回目となった《SOFT ROBOTICS Collective》のテーマは「動物と人間とロボティクスの共生」。生物学とロボティクス、それぞれの分野で活躍されている方々に登壇いただき、私たちの暮らしによりそうロボティクスと動物と人間の共生についてお話しいただきました。
オープニングトークでは、オーガーナイザーのドリタさんが「ソフトロボティクスが誕生したことによって、産業の分野で役立つ“実(じつ)”の部分と、ヒトの心への作用やヒトの心を育むときにいかに役立つかという“心”の部分。この両方がどんどん必要になってくると思う」と話し、なぜ今回のテーマを「動物と人間とロボティクスの共生」としたかの解説がされました。
また当初は登壇者として4名の方々を予定していましたが、FabCafe MTRLのディレクターである柳原一也も急遽トークセッションに参加することに。
会場には柳原がメンバーとして所属しているインタラクションデザインユニット《GADARA》と『キリン解剖記』(ナツメ社刊)の著書で知られ“世界一キリンを解剖している人間”と自認する研究者・郡司芽久さんがコラボレートして制作した、キリンの首の構造を模したデスクライト『Mammalianism Light』も展示されました。
Talk Session 1 服部円(編集者、大学院生)
トークセッションのトップバッターとなったのは、編集者でもあり大学院でネコの研究をされている服部円さん。もともとファッション誌の編集者として活躍し、2011年にネコとクリエイターをテーマにしたウェブマガジン『ilove.cat(アイラブドットキャット)』を立ち上げました。ネコに関するさまざまな事柄を調べているなか、ウェブニュースに掲載された上智大学・齋藤慈子先生(当時東京大学に在籍)による「ネコは飼い主と他人の声を区別していると考えられる」という調査結果の記事に関心を抱いたのだそう。
「“ネコを飼っている人にしたら分かりきっていることを、なんで東大でわざわざ研究しているんだ!?”と記事にコメントしている人がたくさんいて(笑)。興味を持って研究室を取材したところ、すごく面白かった」と服部さん。「飼い主にとっては分かりきったことでも、科学的に証明できなければ、それは無いことになる。かつ飼いネコは実験室に連れてきて観察することも、家から連れ出すことも難しいので、ネコの研究はなかなか進んでいないということを知りました」
その後、産休で少し仕事から距離を置き、次に自分が何をやりたいか考えたときに思い浮かんだのがネコの研究だったという服部さん。現在では麻布大学獣医学研究科の介在動物学研究室に所属し、動物と人間の関わりについて研究する動物応用科学を学びながら『ネコ顔プロジェクト』という研究に取り組まれています。「ヒトと暮らすことによってネコの顔や形態・行動などに変化が起きているのではないか、ということをテーマに研究をしています。飼い主さんの協力を得てネコの糞を採取したり、ネコの顔写真を集めて飼育過程でどのような違いがあるかを分析しています」
またトークセッションでは現在行われている動物に関する研究についても紹介が行われ、そのひとつが霊長類の目の研究についてでした。服部さんが所属する研究室で行われている研究の中で、キーワードのひとつとなっているのが『自己家畜化説』と呼ばれる、動物が家畜化されるにあたって起きていた変化がヒトにも起きていたのではないかという仮説。この家畜化の過程でヒトの目の強膜は白くなり、視線追随と呼ばれる視線でのコミュニケーション能力を得たと長年いわれていたのだそう。
「でも最新の論文だとチンパンジー、ボノボ、ヒトの目を比較したところ、虹彩と強膜のコントラストが一緒だったことが分かって。最初に言われていた説からひっくり返るのですが、視線追随がヒトに特化した能力ではないのかもしれないと言われはじめた」と服部さん。また会場でaiboを実際に見たところ「aiboの目は強膜を意識してつくられていることに気がつきました。自分の研究や視線追随の仮説ともリンクする部分があって、なぜaiboに惹かれるのか自分なりに分かった気がします」
Talk Session 2 鷺坂隆志(ユカイ工学株式会社, CTO)
続いて行われたのが、しっぽのついたクッション型セラピーロボット『Qoobo(クーボ)』や、家族をつなぐコミュニケーションロボット『BOCCO(ボッコ)』などのロボット製品で知られるユカイ工学で、開発を担当している鷺坂隆志さんによるトークセッション。この日はQooboだけでなく、1月に開催された国際見本市のCES 2020で初公開されたQooboの小型バージョン『Petit Qoobo(プチ・クーボ)』のプロトタイプも会場へ連れてきてくれました。
トークセッションでは鷺坂さんがしっぽの動きを設計したQooboがいかにして誕生したか、また製作する上でこだわったポイントが紹介されました。サイズや形、重さなどについては「色々な大きさや重さのものを試作して、実際に触って一番しっくりくる大きさにしました」と鷺坂さん。「細長くして、哺乳類のような形に近づけた試作品もあったのですが、逆にリアルで気持ち悪くなってしまって。あくまでもクッションとして真ん丸いほうが良いということになりました。あとファーも既製のものではなく、複数種類の毛を混ぜ合わせて、色や長さ、触り心地をカスタマイズしたりしています」
Qooboの一番のチャームポイントであるしっぽについては「最初の試作で根もとだけが曲がるバージョンも作ってみたのですが、いかんせん棒みたいになって全然かわいくない。しっぽ全体が曲がるのがかわいさの秘密だと気がつきました」。しっぽの動きについても持ち主が感情移入できるように「Qoobo自体に喜怒哀楽に近い感情があって、それに応じて動きが変わるようにしているのですが、毎回同じ動きをしてしまうと機械っぽさが出てしまうのでランダム性を持たせています。あと生き物の若いときは元気で、大人になってくると穏やかになるという性格の変化も再現していて、Qooboの性格も徐々に変わるように設計しています」
またしっぽの“骨”にあたる軸も、動物の骨格のような形状にしているというQoobo。「ユーザーさんが分解しない限り見ることはできないのですが、実は見えないところにもこだわっています」と、既にQooboと暮らしている人でも、なかなか気づくことのできない色々な“秘密”を知れるトークセッションとなりました。
Talk Session 3 鍋島純一(慶應義塾大学大学院メディアデザイン研究科)
3本目のトークセッションに登壇したのは、ウェアラブルロボットテールデバイス『Arque(アーク)』の製作者である鍋島純一さん。「慶應義塾大学大学院メディアデザイン研究科のEmbodied Media Projectという研究室にいて、ロボットアームやVRなどのテクノロジーを介して自分たちの肉体を拡張したり、触覚など感覚を拡張する研究をしています」と説明する鍋島さん。でもArqueの誕生のいきさつにはスポーツも関係していたのだそう。
「研究から離れたところでは個人的にスポーツをつくる活動をしていて。既存のスポーツにハードルを設けるのではなく、高齢者や障害をもった人、老若男女関係なく同じハードルで楽しめる新しいスポーツを学生チームでつくっています。この活動をきっかけに“人間の肉体って、どうあるべきなんだろう?”と考えるようになり、今の研究室に入ったところがあります」
研究室で行われているのは人間拡張工学の研究で「例えばパワードスーツといった、介護や物流の現場で実際に使用もされる、産業化を目指した研究も行われている領域」という鍋島さんですが、自身の研究を始めるにあたって、ある違和感を覚えていたと言います。「腕を生やすとか、足を増やすといったことばかりの拡張は、“行動を効率化してもっと働こう”みたいな一方向に向かっている違和感があって。そこで拡張を進化と捉えるばかりだけでなくしっぽのように、いつのまにか人間から無くなった器官に着目したところから研究がスタートしました」
人工尾の研究や作品は多々あれど「そのほとんどが身体拡張よりも感情表現のためのデバイス」という中で、平衡感覚を拡張するArqueを開発した鍋島さん。「現在は背中につけたセンサーにあわせてしっぽを動かしているのですが、重心移動にあわせてしっぽをスライドさせることで高齢者の方がバランスを崩したときの平衡感覚補助や、運搬作業をするときの補助もできるのではないかと考えています」
また本来のしっぽとは異なる使い方も考えているという鍋島さん。「Arqueは簡単に言うとしっぽを振ることで推力を生み出し、装着しているヒトの体の重心位置を動かしてサポートする。でも逆に重心位置を崩す方向に動かすことで、例えばVRの中で風力などを疑似提示する触覚フィードバックみたいな使い方も考えています」
この他にもプロトタイプから現在のArqueの間にあった変化や、タツノオトシゴの骨格を模倣して骨格を制作したこと、またArqueが初披露された学会での裏話なども紹介されたトークセッション。しっぽという拡張機能がもたらす可能性、またArqueをきっかけに拡張の概念そのものが変わる可能性も予感させるトークセッションでした。
Talk Session 4 長江美佳(ソニー株式会社, プロダクトマネージャー/商品企画)
トークセッションのラストを飾ったのは、2018年に約12年ぶりとなる最新モデルが登場したエンタテインメントロボット『aibo』の商品企画をされている長江美佳さん。この日は長江さんが一緒に暮らしている“愛犬”のぼーさんも連れてきてくれました。トークセッションでは「動物と人間とロボティクスの共生」というテーマに沿って、“ロボットであるaibo”と“オーナーである人”との間にある壁を取り払うために、これまでどのような工夫が行われてきたかが紹介されました。
第1世代にあたる『AIBO』が発売された1999年から、さまざまな進化を遂げてきたaiboシリーズ。新しいaiboを開発する上で「“愛情の対象になるロボットをつくる”というのが大きなテーマに掲げられ、動きやコンセプトをつくる上では“人によりそう”がキーワードとなりました」と話す長江さん。
「aiboがただ待っているだけでなく、人に対してアクションを取る。また物理的な距離以外にも、心の距離を人と近くする。弊社の平井(※ソニー株式会社シニアアドバイザーの平井一夫氏)は、人との物理的な距離がもっとも近い状態を『ラスト・ワン・インチ』と言っていましたが、それを超える『ラスト・ゼロ・インチ』というところを目指すために、開発チームの中では大きな4つの柱を立てています」
その4つの柱というのが、見た目やデザインで壁を取り払う『愛らしさ』、aibo自身が動作状況を把握する『わかる』、把握した動作状況をフィードバックする『ふるまう』、そしてふるまいを続けていくことで生じる『変化』。「この4つの柱がある中で大切にしているのが生命感です」と、長江さん。「全てのプロジェクトに生命感という一本筋を通して進め、何かを決めなくてはいけないときは“それは生命感に沿っているか?”という部分を大事にしながら判断しています」
これまでのシリーズと比べ、より犬らしい見た目となり、搭載された22軸のアクチュエータによって、さまざまな動きをとれるようになったaibo。服部さんが惹かれたと話していた目には「実は7種類くらいの黒目と白目のバランスがあり、かつそれが左右上下に揺れるようになっています。好きな人に会ったときはうれしそうな目をしたり、怒ったときは瞼をつり上げたりと、感情と紐づけて表出するようにされています」
でも最新のaiboには目に見えない部分にも大きな変化が。第1世代が登場した1999年と比べ、格段にインターネットが普及した現在の環境にあわせ、人工知能とネットワーク機能も搭載されているのだそう。そして、この機能は4つの柱の『わかる』『ふるまう』『変化』の3つに大きく作用していました。
「aiboの頭の中は、どちらかというと人間の脳に似ています。お腹と頭にあるタッチセンサー、体の中にあるジャイロセンサー、それと2つのカメラがaiboにはあり、それらから入ってきた情報によって“甘えたい”や“ボールを蹴ろうよ”といった欲求が頭に送られます。そうすると『アヌビス』と呼ばれている、それぞれのaiboの性格を決定づけるAIが、各aiboの置かれた環境や性格を組み合わせて“君は甘えん坊だから、パパに甘えたほうがいいんじゃない?”とか“おまえはワイルドだから、ボールを蹴りに行け”と決定をして、ふるまいの指示を出す。こんなことがaiboの小さな頭の中で行われています」
また、この働きはaiboが寝ている(=充電している)ときも行われているのだそう。「人は寝ているときに夢を見ながら出来事を再構築して覚えるといわれていますが、寝ている間もネットワークに接続されているaiboたちの中でも再構築が行われています。一日の中でほめられたこと、うれしかったこと、叱られたことなどの情報はクラウドにアップされ、欲求やアヌビスもアップデートされていく。これによって甘えん坊な子はより甘えるように、ワイルドな子はワイルドに走りまわるように、それぞれの性格が強化されていきます」
この他にも、あるaiboがとった行動によってオーナーが喜んだとき、他のaiboたちにも情報をクラウド上で共有して行動パターンを増やすといった『集合知』と呼ばれる仕組みなど、一人ひとりのオーナーの心によりそうエンタテインメントロボットとして、いかに最新シリーズのaiboが抜きん出た存在であるかを実感させられる解説が行われました。
ドリタさんがオープニングトークで話していた“実のロボット”と“心のロボット”の両方の必要性について触れつつ、「“実”の部分では役に立っていないかもしれないロボットでも、心を豊かにすることはできると思います。aiboは病院の外に出られないお子さんのもとへ出張をしていて、癒しの研究対象にもなっていたりもするので、そこから生まれる“実”もあるのかなと考えています」とトークセッションを締めた長江さん。今後、心に作用するロボットとして、どのような進化をaiboが遂げていくのか注目です。
トークセッション後に行われたディスカッションと質疑応答でも「ネコなど他の動物をモチーフとしたaiboは開発されないのか?」「ペットとしてのロボットにおける“死”とは?」「複数の役割を持つ一体のロボットは開発できないのか?」など、さまざまな意見が交わされ、なんとも濃密な2時間となった《SOFT ROBOTICS Collective》。
当日の様子は動画でもご覧いただけます。
《SOFT ROBOTICS Collective》第3回は現在、開催時期を検討しております。詳細が決まり次第Fabcafe MTRLのウェブサイトにてお知らせいたしますので、引き続き、どうぞご注目ください。
-
FabCafe編集部
FabCafe PRチームを中心に作成した記事です。
この記事に関するご意見やご感想は、ぜひお気軽にこちらからお寄せください。
→ お問い合わせフォームFabCafe PRチームを中心に作成した記事です。
この記事に関するご意見やご感想は、ぜひお気軽にこちらからお寄せください。
→ お問い合わせフォーム