情報技術の発達により、「ヒトの脳のような柔軟な知性を人工的に作り出す」ことが遠い未来の世界とは必ずしも言えなくなった。人工知能を知的労働の自動化システムと見たとき、究極の知的労働とは科学や技術の研究開発そのものに他ならない。このような人工知能の未来を予期しながら開発に取り組むのが、理化学研究所で研究室を主宰する高橋恒一チームリーダーだ。今回は人間の脳と人工知能の進歩、科学が抱えている課題について、その進歩の歴史と高橋氏がとなえる「第五の科学=人工知能駆動型科学」を中心に、いま人類が向かいつつあるゴールについて語っていただいた。

コンピュータ上で、生命をシミュレーションする
Q:ご自身の研究の概要についてお聞かせください。
現在、理化学研究所生命システム研究センターで、シミュレーションを中心とした計算システム生物学と、脳型人工知能の開発とその応用の二方面に取り組んでいます。一見、全然違う研究テーマのようですが、実はこれらはAI駆動型科学という三つ目のピースで一つになります。これらがどうつながっているのかを説明すると自然と私の研究の全体構想の紹介になるので、今日はその話からしたいと思います。
私の最初の研究テーマは細胞のシミュレーションでした。1995年に慶應大学の冨田勝教授などとスタートしたE-Cellプロジェクトです。
95年というと、微生物のゲノムが人類史上はじめて解読できるようになった時期ですが、「全ゲノム配列がわかるならこれをそのままコンピューターに乗せれば、生きている生命がそのままコンピューターの中に再現できるのではないか」というユニークな発想から生まれたプロジェクトです。私は当時学部3年生、20歳そこそこだったのですが、その時下宿のアパートに引きこもって一ヶ月ほどで開発したE-Cell Systemというシミュレーションソフトウエアは、クレイグ=ベンター氏が率いる米国のゲノム科学研究所との国際共同プロジェクトで採用され、世界初の全ゲノム規模細胞シミュレーションを実現しました。
この成果は北野宏明さんなどが提唱した計算システム生物学という分野を一種先駆けたということもあって、E-Cellの研究は幸いNature、Science両紙が特集記事で複数回にわたって取り上げてくれるなど世界的にも非常に受けました。
学位取得後は色々なところからオファーがあり、世界一周旅行して自分の抱くビジョンを共有できる場所を探しました。結局、当時MITで合成生物学という、人工的に生命のゲノムをデザインするという新分野を立ち上げつつ合ったドリュー=エンディ(現在はスタンフォード大教授)の紹介を受け、ヒューマン・フロンティア・サイエンス・プログラム(HFSP:本部をフランス・ストラスブルグ市に置く国際組織)が新設したフェローシップの一期生として採択され、カリフォルニア州バークレー市の分子科学研究所に職を得ました。ノーベル賞受賞者のシドニー・ブレンナーが設立した独立系の非営利研究機関です。ここでは世界最高性能の粒子反応拡散シミュレーション手法eGFRD(改良グリーン関数反応動力学法)を開発しました。近似を用いない厳密な粒子反応拡散シミュレーション手法としては現在でもこれを超える性能の計算手法は出ていません。
この仕事がきっかけで、当時スーパーコンピュータ「京」を建造していた理化学研究所から生命シミュレーション部門のリーダーとして引き抜かれ、研究室を持たせていただくことになり現在に至ります。
理研では細胞内情報処理の超精密シミュレーションで生物物理の基礎理論のうち二つを刷新したり(一つはMAPキナーゼと呼ばれる癌化や分化など様々な生命現象に関わる分子の情報処理様式の理論、もう一つはバーグ=パーセル限界と呼ばれる分子間情報伝達の上限に関する理論)、細胞核内の遺伝子の情報読み出しのメカニズムを明らかにしたほかに、神経細胞の軸索形成のシミュレーション、ヒト赤血球や大腸菌の細胞まるごとシミュレーションなどの応用にも様々に取り組んでおり、この分野で先端的成果を出してきた自負があります。
ワトソンとクリックのDNA二重らせん構造の発見により本格化した分子生物学というのは、生命の機能をDNAをはじめとした分子に還元して説明するというのが目標の学問です。もし細胞シミュレーションが完全な形で実現できて、DNA配列(遺伝子型)から生命のはたらきや機能(表現型)をシミュレーションで直接予測できたとしたら、分子生物学という分野をまるごと終わらせる、決着させることができます。これは、望んだ特質や機能を持った生き物をDNA配列のレベルから自在にデザインして生物を合成する、バイオテクノロジーの革命にもつながるものです。
もちろん、この目標はまだまだ遠く、道半ばですが、長い目で研究を続けてゆくためにはこのようなグランドゴールを北極星のように設定することで羅針盤がよく働くようになります。実際にはまだまだ地道な研究が必要ですが、今後も引き続き取り組んでいきます。
Q:高橋様はなぜ、この分野に進まれたのでしょうか?
小学2年生からプログラミングをはじめたのですが、高校時代には実は音楽と哲学、特に音楽美学に興味が移り、大学の作曲科を目指す一方で、趣味でニューラルネットワークの教科書を自学したりプログラムを組んだりもしていました。次第に普通の五線譜上の作曲では満足できなくなり、デジタル信号処理を用いたコンピュータ音楽を学びたくなりました。結局、音楽大学ではなく慶應大学SFCに進学し、大学1、2年の頃は作曲家の岩竹徹先生の研究室に入り浸ってLISPという人工知能用のプログラミング言語を使った自動作曲や、人工生命を使った音響生成など色々とやりたい放題させていただいていました。
SFCでは古川康一先生(慶大名誉教授、人工知能学会フェロー)や相磯秀夫先生(慶大環境情報学部初代学部長)などなど第二次人工知能ブーム、第五世代コンピュータプロジェクトの時代に活躍した多くの先生方の授業を受けて育った世代です。特に、学部時代は論理学の基本と論理プログラミングはみっちり叩き込まれましたね。また3年生から所属した研究室のボスの冨田勝教授(慶大先端生命科学研究所長)も、人工知能研究の出発点である1956年のダートマス会議に参加したハーバート・サイモン先生(カーネギーメロン大学)に師事した人工知能の研究者でした。
現在は、人工知能を使って科学研究そのものを「自動化」することをグランドゴールとして設定しています。
AI社会論研究会で提唱する「HELPS」
Q:なぜ、自動化をゴールとしているのでしょうか。
科学の自動化をゴールとしたその最初のきっかけは、マクロ経済学でした。
欧米に数年遅れて、日本では2014年くらいから徐々に人工知能に関する論議が再度盛り上がってきました。私自身も、経済学者の井上智洋さんとAI社会論研究会というものを2015年の2月からやっていて、社会学者、哲学者、経営者、官僚、作家、芸術家など様々な領域の方々との対話を続けています。井上さんは実は慶應SFCの同窓生です。2017年6月で第25回を数えました。
慶應SFCは設立当初から文理融合を目指したキャンパスで、生命科学から量子力学、人工知能からコンピュータアート、政治学から計量経済学、社会学まであらゆる分野の講義を全ての学生が自由に受けることができました。AI社会論研究会では文学から情報セキュリティー、システム論、社会学、政治学まで様々な議論をしていますが、この雰囲気は我々にはとても馴染み深いものです。
社会的なインパクトの大きい新たな科学技術をどう社会が受容するのかの議論の枠組みとして、ELSI(Ethical, Legal, Social Issues; 倫理的、法的、社会的議論)がよく引き合いに出されます。ELSIは、生物工学の発展によりゲノム生物学、さらには合成生物学が勃興し、究極の個人情報でありまた生命情報の根幹である遺伝子配列の解読と操作が可能となりつつある状況を受けて、主に1990年代に世界的に広まった取り組みで、私もオックスフォード大学で行われた合成生物学のELSIの会合で招待講演したことがあります。ただ、ELSIは「出てきてしまった新技術の負の側面を最小化する」という、どちらかというと後片付け的発想なので、人工知能技術の場合にはより踏み込んだ取り組みが必要だと考えました。
そこで、AI社会論研究会が提案するのがHELPS (Humanity(哲学), Economics(経済学), Law(法学), Politics(政治学), Society(社会))です。 従来の人文社会科学では、どちらかというと過去の事象や文献をあとからうまく整理、説明するpost-diction的立場のほうが評価を定めやすく、結果として、今後起きる物事や社会にありかたを予測し、あるいは指向、デザインしていくという立場に足がかりを作るのは容易ではなかったのですが、社会や技術の変化が加速し、その影響も増々大きくなっていくなか、今後は未来を見通すpre-diction的な視点で、技術側と人文社会科学側が対等の立場で取り組んでゆくことが大事になると思います。
私は慶應大学の教員も兼務しているのですが、AI社会論研究会の活動はその後慶應大学SFC研究所のAI社会共創ラボラトリという研究組織の設立のきっかけにもなり、科学技術振興機構社会技術研究センター(JST-RISTEX)からも支援を受けながら活動を続けています。経済学的な観点から言うと、詳しくは井上さんの著書『人工知能と経済の未来』に譲りますが、人工知能によって産業革命が再度起きるとすればそれは人工知能の研究開発への応用が起爆剤である、という議論がありました。
いま人工知能というと、「自動運転」や「ビッグデータ」、「IoT(モノのインターネット)」や「ものづくり(インダストリー4.0)」などがよく注目されますが、これらはいずれも19世紀の産業革命のアナロジーで考えられています。しかし、人工知能とはその本質においては知的労働の自動化技術です。知的労働の最たるものといえば、やはり研究開発ですよね。直感的にもそうですし、井上さんによると今後の経済発展のマクロ経済学モデルによるシミュレーションでも、科学技術の研究開発にいかに人工知能技術を活かせるのかどうかで今後の経済発展の大局が決まるということです。逆に言うと、ここを怠ると現在はかろうじて先進国に名を連ねている日本も再度中進国に落ちてゆくことも十分ありえるということです。
私は理化学研究所という日本で最大の自然科学の国立研究開発法人にいますので、科学研究への人工知能応用を本気で考えてゆく責任があるな、と考えたのが科学の自動化に取り組み始めた最初のきっかけです。というわけで、それまでも興味はあったものの直接は取り組んでいなかった高度な情報技術やロボティクスによる科学技術研究の加速、つまり「人工知能駆動型科学」の研究の重要性を理研内や政府方面にも声を上げるとともに、実際に研究室でも取り組みはじめたのが2015年頃です。
科学史をたどることでたどり着く、科学の自動化
Q:提唱されている「第五の科学」とは、どういった流れで出てきたのでしょうか。
科学を計算機で自動化するには、まず科学という知的プロセスを本質的に深く理解する必要があります。一見回り道になるようですが、科学哲学や科学史の知見が、本質を忘れず脇道に入り込まないために非常に大事になります。
第一の科学の例でわかりやすいのが、物理学における天体の運行の法則の発見です。かつてティコ・ブラーエが生涯をかけて天体観測をしていました。そのデータを弟子のケプラーが見ていたところ、どうも惑星と恒星っていうのは違って、惑星というのは太陽の周りに楕円軌道を描いていて、地球もその一つなのではないかと。この経験を記述してそれをじっと眺めて直観的に法則を発見するやり方、これが第一の科学である「経験記述」です。
次に第二の科学はというと、「理論」です。ケプラーの楕円軌道理論の後に、それをさらに発展させて数理的にちゃんとしたのがニュートンでした。それまでは物理と数学というのは実は現在ほどは接点がなかったのですが、ニュートンは万有引力の法則を発見し、それを記述するために微積分学という数学の一つのフレームワークを始めました。微積分学を使って万有引力の法則を記述すると、天体の運行などあらゆるものを統一的に記述できることに気づきました。これってつまり単なる経験則、「法則」が数理的な「理論」に転化したわけですよね。理論が数理的にしっかりすると、過去にあったことと現在の状況の関係から検証ができる。言い換えると、実験という仮説の検証手段が非常に強力に補強される。すると、次に起きることは「予測」が可能になることです。
実際に、ニュートン力学を使えば何百年後でも惑星の位置が予測できる。前世紀半ばのデジタル計算機出現までは理論計算は紙と鉛筆で人手でやっていたのですが、これを計算機で加速すると第三の科学である「シミュレーション」になる。そして、昨今の深層学習の進展をきっかけとした統計的機械学習、データサイエンスの発展は、第一の科学でのヒトの直観による法則やパターンの発見を計算機で機械化した、第四の科学である「データ」サイエンスだと考えられます。
ここまでは私が勝手に言ってるというよりは、割とよく話題になる、ある種通説と言ってもいいでしょう。
それでは、第五の科学として私が考えている人工知能駆動型科学とは何なのか。ケプラーがやったようにデータをじっとみて法則を発見するのは、論理学でいうと帰納的な推論にあたり、データの中からパターンを見出すものです。一方、シミュレーションは演繹的な推論となり、与えられた仮説、モデルからその結果を予測し、この予測と実験データを比較することで仮説が検証できる。こう考えるとお分かりの通りこれは表裏一体のものなのですよね。
歴史的には経験主義自然哲学という哲学の一系統から近代科学というものがはっきり分派したのはごく最近、数百年の歴史しかありません。
自然科学が何をやっているかというと、世界からモノや概念といった単位体を切り出し、本質的に分散的、並列的である自然現象を、人間の認知構造に適合し、操作が容易なような記号的、逐次的な記述、つまり数式や文章で表現可能な知識体系に翻訳するというプロセスと見ることができます。帰納の部分は実際の現象からパターンを書き下すし、演繹の部分は式で書かれた法則から次に起こることとして実際の現象に戻すことになる。この両方が一体となると仮説の生成と検証という科学的発見のサイクルが回り始めるわけです。
この一連のサイクル全体をコンピューターに乗せることが、第五の科学・人工知能駆動型科学の確立というグランドチャレンジです。
人工知能駆動型科学が未完成な、2つの理由
Q:課題を感じている面はありますか?
お話した通り、帰納の部分は統計的機械学習、人工知能技術でコンピューター化されています。また、理論の部分は20世紀の後半に発達したシミュレーション科学で加速されています。ここまでは実は第一から第四の科学で既に行なわれていることです。そう考えると、人工知能駆動型科学は一見もう完成していてもよさそうなものですが、まだ実現できていません。なぜでしょうか?
じつはまだ2つほど、欠けているピースがあります。一つ目は、人工知能による仮説生成の自動化。つまり、「帰納的な推論で得られた法則・パターンを、どのように演繹的予測の出発点となる仮説・モデルに結びつけるか」というところです。
現象を観察して見出した法則・パターンってそれはそのままで仮説・予測モデルではないのですよね。ごく単純な場合を除けば、現実の科学研究で問題とされるような複雑な現象の場合、表面的に見えている法則・パターンを説明できるモデル、仮説というのは、無数にありえます。
論理学の世界では帰納と演繹に次ぐ第三の推論のスタイルが、アブダクションと呼ばれるものです。日本語でいうと「仮説形成」です。このアブダクションにあたる部分を人工知能に任せるのが、研究のフォーカスの一つになっています。無数の可能性の中からどう計算機に有効な仮説を生成させるのかという、途方もなく大きな探索問題をどう解かせるかというのが未解決の問題の1つです。
やらなくてはいけないことのもうひとつは、データ取得の自動化です。人工知能で法則発見、仮説生成、シミュレーション・予測の各ステップが加速されると、それらに供する実験データを大量に取得する必要が出てきますよね。すると、人手で実験していても実験データの供給が全然追いつかないということになります。ここで、ロボットによる実験の自動化というのが急務になってくるわけです。
全脳アーキテクチャで、脳のはたらきをモデル化する
脳は非常に高度な情報処理システムですが、結局のところ何をやっているのか?脳がやっていることはそもそも、分散情報を統合し、また分散系に戻すという一連の処理であると捉えることができます。
つまり、・本質的に並列的、分散的である物理世界を複数の感覚器で感知し、・感知した感覚情報を言語や記号概念を用いた逐次的な論理操作も利用しながら1つのモデルとして情報を統合し、・そのモデルを用いた予測に応じて行動を決定し、・複数ある運動器を連動させて世界にはたらきかける・その結果を、さらに感覚器で感知する(最初に戻る)という閉ループの処理です。
ここまでざっくり抽象化して考えると、脳がやっていることは先ほど述べた科学とは何か、として述べたこととほぼ同じことだとお分かりいただけると思います。
全脳アーキテクチャというのは、ドワンゴ人工知能研究所の山川宏さんなどとやっている、脳型人工知能のプロジェクトです。2015年に非営利活動法人全脳アーキテクチャ・イニシアティブを立ち上げ、私が理事・副代表をやっています。
よく誤解されるのですが、全脳アーキテクチャは脳をまるごとシミュレーションしようとする、いわゆる全脳エミュレーションとは違います。
全脳エミュレーションや、それに繋がる全脳シミュレーションという研究は、日本も世界をリードする計算論的神経科学の非常に重要な分野ですが、実際の脳から神経細胞同士の結合(コネクトーム)を全て正確に読み取り、それを計算機上に再現しないといけないので、超えなければいけない技術的なハードルはまだまだ高いといえます。
これに対して全脳アーキテクチャは、神経細胞一つひとつの結合はまずは一旦置いておいて、大脳新皮質や海馬、大脳基底核といった器官のレベルで結局はどういう計算機能を果たしているのかをそれぞれモデル化し、それらを脳に学んで組み合わせて脳型の認知アーキテクチャ、また将来的にはいわゆる汎用人工知能(AGI)と呼ばれる技術を確立しようという試みです。
少し乱暴な例えですが、囲碁のチャンピオンの打ち破ったAlpha Goの基盤技術である深層強化学習というのは、大脳新皮質にあたる深層学習と、大脳基底核にあたる強化学習の2つを組み合わせた、一種の初歩的な脳型認知アーキテクチャであると見ることもできます。Google DeepMind社長のデミス・ハザビスは「ついに正しい梯子を見つけた」と言っています。
全脳アーキテクチャ研究の一環として、我々は文部科学省の次世代スーパーコンピュータ「ポスト京」にも関わっているのですが、このプロジェクトでは2020年前後までにヒト全脳に匹敵する規模でのリアルタイム計算が可能な脳型人工知能を構築するのが目標です。
じつは、脳は計算機の高性能化の観点でも学べるところがたくさんあります。まずニューロン自体が別のニューロンとは独立に発火する並列情報処理素子であり、また新皮質の隣接した層同士も、それぞれの層が下位の層から来る情報を常に予測し、その際の誤差を上位層に送信するといった具合に並列に動作すると考えられています(予測符号化仮説)。遠隔した領野間ではおそらく転送しているときだけ脳波が出現して領域間が同期するなどの通信を行なっており、新皮質、海馬、基底核といった器官レベルでは視床を中継した長距離の神経投射により役割分担している。このような脳の時空間階層性と、電子計算機のトランジスタ、演算装置、キャッシュ、メモリ、ネットワークといった階層性とは類似するにもかかわらず、脳のほうが圧倒的に豊富な並列性のレパートリーを持っており、しかもおおむね百万倍くらい省エネルギーです。
特に、現状のディープラーニングのような人工神経回路では誤差逆伝播という方法で全体を同期して学習するために大規模化の大きな足かせになっているのですが、この限界を突破して人工知能の性能を向上させるために、実際の脳のこのような並列性に学ぶところは非常に多いということです。我々の研究室では、スーパーコンピュータでの実行に適した、逆伝播によらない非同期学習手法の開発に取り組んでいます。
実験の自動化で科学的発見を最適化する
話は戻って、人工知能駆動型科学のためにもう1つ重要なことは、実験の自動化です。
例えば生命科学のデータ取り。私はいま生命科学の研究センターにいますが、生命科学の研究現場はすごく泥臭くて、博士の学位を持っている優秀な人たちが丸一日、出勤してから帰るまでずっとピペットを手に単純作業をしています。我々はこれをロボットに任せたいわけです。数年前も、生命科学データの捏造疑惑がマスメディアでも大きな話題になりました。実際のところ、生命科学実験の再現性というのは非常に難しい問題です。再現性がなければ「巨人の肩に乗る」こともできないので、国際的にも研究を発展させる上で深刻な問題になっています。実験プロトコルをプログラムとして記述してそれをロボットで実行し、インターネットを介して世界中で共有すれば、この問題は一挙に解決します。
私は東京お台場に本社を置くロボティック・バイオロジー・インスティチュート株式会社(RBI)というスタートアップ企業のCIO(最高情報責任者)でもあり、この会社の情報システムのチーフアーキテクトです。我々が開発する実験ロボットLabDroid (ラボドロイド)は理研や産業総合研究所、科学技術振興機構、日本各地の大学などとも協力関係のもと全国で実証実験を進めており、既に、実際の生命科学の現場で創薬や再生医療、ゲノム解析などの分野で大きな成果を上げはじめています。
単にロボットでヒトが行なう作業を自動化するだけでなく、人工知能による仮説生成と組み合わせることで、実験手順や科学的発見を最適化する試みを既に開始しています。この事業は、近い将来世界展開を開始する予定です。
データはすでに、重要ではない?
Q:データサイエンティストという言葉が出てきたように、データの重要性が年々高まっている印象ですが、どのようにお考えでしょうか。
たしかに日本ではいま、データの重要性が叫ばれています。ただ、ロボットやネットワーク、IoTなどと人工知能技術が結合してデータ取得の自動化が進むことで、逆説的ですがデータの重要性は低下してゆくと思います。深層学習を中心とした機械学習技術は認識技術に大きなブレークスルーをもたらしましたが、現状はまだ雛鳥が巣で大きな口を開けて親鳥が餌を運んでくるのを待ってるだけ、つまり人間がデータを放り込んであげないと何もできない段階です。だからとにかくデータを握っているプレイヤーが強いとされています。しかし、雛鳥はいずれ成鳥となり飛び立って、自分で餌を見つけ、自分の口に入れられるようになります。
次の技術開発の焦点の一つは、認知アーキテクチャの完備です。つまり、認識して、予測して、意思決定して行動するという一連のサイクルを繋げるということになるでしょう。このようなサイクルが完成すれば、人工知能が自分で行なった予測と仮説に基づき次の行動を生成し、その行動の結果得られたセンサ情報の変化を観察することで自力でデータを作り出し、取りにいくことができるようになります。そうなれば、データの重要性は相対的に低下し、同時にデータを生成できるプラットフォームの重要性はより増すことになります。さきほど、AlphaGoの深層強化学習は初歩的な脳型認知アーキテクチャであると述べましたが、学習の初期段階では人間の棋譜を入力したものの、学習の主要な部分は自己対戦による閉鎖した環境とはいえ、自力で生成したデータで進めたことは象徴的です。
つまり、今後はデータだけに注目するのではなく、適切なプラットフォームに着目し、構築することが決定的に大事になるでしょう。
人工知能駆動型科学もその一つですし、もちろんウェブやロボットも大事ですが、スマートホーム、建物やインフラ運営、行政、情報ネットワークなどもプラットフォームとして大きな可能性を持っています。我々の研究としては、観察データを用いて予測し、その一方でこの予測した状況を実現するためにどう行動すべきかを計算して実行し、さらにそこからデータを得て次の予測を行なう、という脳の仕組みにもとづいた能動推論という技術に注目し、これにもとづいた新規の人工神経回路アーキテクチャを開発しており、この技術の様々な応用を検討しています。
ここまで述べてきたようなデータ取得、法則発見、仮説生成、そしてシミュレーションによる仮説検証、という一連のサイクルの自動化の技術開発のプラットフォームとして、いくつかの理由で生命科学研究が適していると考え、起点として取り組んでいます。
これは将来的には気候変動や生態系、高分子化学、社会システムなど、広範な複雑系科学分野一般に影響します。そしてその後は自然科学にとどまらず、企業経営や製品開発、さらには政策立案やインフラ運営など、あらゆる分野におけるイノベーションを加速していくでしょう。(了)

高橋 恒一
たかはし・こういち
理化学研究所で研究室を主宰。専門は計算システム生物学、高性能計算、脳型人工知能など。
AI社会論研究会共同発起人として人工知能技術の社会への影響にも関心を持つ。慶應義塾大学政策・メディア研究科特任准教授、大阪大学生命機能研究科招聘准教授、全脳アーキティクチャ・イニシアティブ理事・副代表、ドワンゴ人工知能研究所客員研究員、RBI株式会社CIO、スパイバー株式会社顧問などを兼務。