AIは万能ではない――インシリコ創薬が目指す未来人工知能ニュース(3/3 ページ)

» 2018年02月02日 09時00分 公開
[加藤まどみMONOist]
前のページへ 1|2|3       

化合物をコンピュータにデザインさせる

 ただし、こういった取り組みは新しいものではない。この例では、あらかじめ用意されたタンパク質と化合物の中から、目的の組み合わせを見つける。「これではあまり面白くない。よりAIらしい進め方として、標的のタンパク質の情報だけを入力し、それに対する化合物はコンピュータにデザインさせたい」(奥野氏)。

 例えばCDK2というタンパク質に結合する化合物を探索する場合、基本となる化合物に結合可能な3つの官能基(腕)があり、市販されている試薬をこの腕に付けると考えると、候補のバリエーションは理論上10の15乗になる。

 そこで奥野氏が示したコンピュータ上の化合物設計では、はじめに構造生成プログラムにより32の化合物を発生させる。AIによりそれらの活性度のスコアを算出し、その時点で最も高い構造を保持しながら他の構造を変化させていき、最も高いスコアとなる構造を探す(図5)。

図5:構造生成プログラムと群知能最適化アルゴリズムを組み合わせて活性の高い化合物を探索する(出典:京都大学大学院)

 「このようなパラメータを最適化していくアルゴリズムはモノづくりの世界でも使われていると思う。化学構造をコンピュータ上で発生させて、AIによりタンパク質との活性を予測する手法と組み合わせることで、新しい化合物をデザインできるようになっている」(奥野氏)。

診断材料のマイニングにAIを使う

 コンソーシアムでは、がんゲノム医療(個人のゲノム情報に応じた治療を行うアプローチ)にも取り組んでいる。このがんゲノム医療には米国政府も「精密医療」という名称で取り組むことを表明している。「このような取り組みの背景には、『実は薬は思ったほど効いていない』という現実がある」(奥野氏)。

 実際にある統計では、抗がん剤を使用した患者のうち75%に効果が認められていない。またアルツハイマーの場合も、標準治療を受けた患者のうち、70%に薬効が認められていないという。抗がん剤は高価な上に副作用も強い。そのため、あらかじめ効くかどうかを調べた上で投与しようという考えが広がっているのだ。

 個人のゲノム情報を調べて体質や薬の反応性を判断する際は、まずゲノム配列をシーケンサーで読み取り変異を特定する。ここまでのプロセスは情報学的に確立されている。

 だが、見つかった変異が本当に薬に関係するかどうかを判断するためには高い専門性が必要になる。そこで臨床医や情報学、遺伝カウンセラーなど、さまざまな専門家が集まって文献やデータベースを調べ、適切な治療法を議論することになる。

 ここで問題になるのが、治療においてはスピードが何よりも重要になるということだ。「がんは進行が速く、患者は待ってくれない。また将来ゲノム解析のコストが下がり、蓄積されるデータ量も爆発的に増えると考えられる。マニュアル作業で文献を読み解く方法ではいずれ追い付かなくなるのは確実」(奥野氏)。

 そこでコンソーシアムでは、AIを活用して文献やデータベースのマイニングを行い、情報をある程度選別した上で人が見ていくというプロセスの開発を進めている。IBMのAI「Watson」が活用されているが、Watsonは基本的に欧米の人のデータベースを使用しているので、コンソーシアムでは日本人のゲノムを用いた日本版AIの開発を進めているという。

 とはいえ、これだけで現場の作業がスムーズに進むわけではないという。得られた遺伝子の変異のデータは、臨床上は意味の分からないものの方が多いからだ。論文やニュースとして表に出てきているものは、一部の解釈に成功した分かりやすいものにすぎない。情報のない中AIだけで解決することは不可能だ。

 そこで、分子シミュレーションによってゲノム上の変異をタンパク質上に再現し、タンパク質と薬剤の反応性を確認することにも取り組んでいる(図6)。

図6:スパコン京によるALKの分子シミュレーション(出典:京都大学大学院)

 例えば肺がんにおいて、抗がん剤を投与するうちに遺伝子のタンパク質配列が変化する例がある。こうなると薬が効かなくなってしまう。AIだけでは限界があるため、シミュレーション実験によってデータのない領域を推論していくことが重要になってくるという。

AIは万能ではない

 AIを活用していく上で注意すべき点として、奥野氏は2点を示した。「創薬やモノづくりを含めて、自然科学の分野では新規の事象や物質の発見が最も重要になる。だがAIは過去の経験を使って推論していく。そのため実は新規性とは背反している。また、AIは問い合わせが来れば結果を与えるという推論のモデルは作ってくれるが、その間のメカニズムはブラックボックスになる」(奥野氏)。

 AIの予測範囲や精度は、既存の学習データの質や量に大きく依存する。「AIによるデータ解析を行う上でよく問題になるのが、実験データが足りないということ」(奥野氏)だという。これはレンブラントの絵が十分になければレンブラント風の絵を描けないのと同じだ。「実験側から『こういったことを予測したい』といわれていざ検討してみると、対象データがほとんどない。そこで『実験をしてほしい』と伝えると『実験したくないから計算してほしい』となる。現実ではこの点がなかなかかみ合わない」(奥野氏)。

 そこで、タンパク質の分子シミュレーションの例のように「計算できるところまではコンピュータで計算する、実験データがないところはシミュレーション実験を行い、その結果をAIに学習させる」(奥野氏)というアプローチを取る。AIとシミュレーションを回すことによって、できる限りコンピュータでモデルを作る。ただそれだけでは誤差が膨れ上がるため、必要最低限の実験も行う。

 「AIという言葉が独り歩きしているが、実験とAIとバーチャル実験を適切に組み合わせれば、コストのかかる実験を減らしながらプロセスを加速することができる。これを目指さなければ、日本ははるかに財力のある海外と対等に戦っていくことはできないだろう。AIに興味のある方は、AIだけでなくシミュレーションや実験ももっと大事にしてほしい」(奥野氏)。

 コンソーシアムでは図7のように創薬に関するさまざまなAIを開発しているが、奥野氏はさらにその先を目指したいという。

図7:コンソーシアムが目指す究極のIT創薬の姿(出典:京都大学大学院)

 それは30本のAIが開発できたら、それらのインプットとアウトプットをつなげるということだ。つまり「どんな疾患の薬を開発すればよいかと問えば、薬や治験の方法まで全ての回答が返ってくる」ということを意味する。

 奥野氏は最後に1900年と1913年のニューヨークの大通りの写真を示した。「産業革命では自動車が13年で大通りを走る馬車を全て置き換えた。2030年にはこのようなAIもできているのではないかと思う。私たちはそれを日本発として作っていきたいと考えている」(奥野氏)。

前のページへ 1|2|3       

Copyright © ITmedia, Inc. All Rights Reserved.