最近読んだ本など
去年はコロナなどが興味の中心になってしまい研究の方は宙に浮いていましたが、ここ数か月は研究関連に少しウェイトが戻ってきたので、最近取り組んでいたことを少しメモしておきたいと思います。
- 2021年3月に松尾研のスプリングセミナー(深層生成モデル)を受講して、無事修了しました。
フローベースやエネルギーベースなどはなかなか馴染みがないところでしたが、なんとなく雰囲気がわかったので、受講できてよかったです。例えばフローベースだと可逆なので、それ単体では潜在側の情報量が減らないじゃないのかなと思ったりしました。
生成モデルではとてもきれいな画像を生成する部分が目を引くところですが、きれいな画像自体は個人的にはそれほど興味がなくて、世界を認識するために生成が必要なんだろうなという感じは前々から思っていました。今回も第6回目の世界モデルのところで、Attend-Infer-Repeat (AIR)とか知らなかったので、認識側との関係の研究が少しわかってとても勉強になりました。
このセミナーの第6回の方で紹介されていた本に、
- On Intelligence(考える脳 考えるコンピューター)(Jeff Hawkins著, 2004)
があったのですが、すこし興味をもったので、中古で少し割高の3000円くらい(おそらく絶版)で買って読んでみました。
著者のJeff Hawkinsの経歴が変わっていて、ざっくりいうと、企業(インテル)⇒ 大学院(脳) ⇒ 起業(パーム)⇒ 研究所設立(脳)という感じで、ただらなぬ人でした。
Jeff Hawkinsは脳の仕組みの解明することに関して情熱をかけてきた人ですが、そのなかでも大脳新皮質に注目していて、大脳新皮質はどの部分も構造はほぼ一緒なので、視覚、聴覚、言語、計算などは同じような仕組みで動いているはずで、だれもわかってないその謎を解明したいという内容でした。
その仕組みの一つのカギとして、脳は常に予測をしているという仮説を主張していて、生成モデルと少し近い部分であるので、なにか研究のヒントになればとか思いました。
その後17年経過して、ちょうど最近新しい本が出版されていたので、
- A Thousand Brains: A New Theory of Intelligence (Jeff Hawkins著, 2021)
を Amazon の kindle で購入してみました。
出版したばかりで英語しかないので、DeepLに翻訳させてみようとしましたが、デスクトップのkindle自体に文字のコピーの上限があるみたいで、いろいろ工夫しながら翻訳して読んでみました。元の文章が比較的一般向けに書いてあって、わかりやすく書いてあるのもあってか、DeepLの翻訳だけでほぼ原文見ずに内容が理解できたので、正直、機械翻訳の発展に少々驚きました。
大脳新皮質を解明することは同じですが、今回はリファレンスフレームを使っているという仮説が中心でした。脳にたくさんの地図があるような感じで、それを使って世界のモデルを作っているという内容でしたが、脳のなかにグリッドがあるのではというは面白くて、とても興味を持った内容だったので、論文とかも見てみたいと思いました。
A Thousand Brainsを読んでいる途中に、Twitterで見かけた
- マスターアルゴリズム 世界を再構築する「究極の機械学習」 (ペドロ・ドミンゴス著2015, 神嶌 敏弘 翻訳2021)
が出版されたので、買ってみて読んでみました。
機械学習のアルゴリズムにいろいろあるけど、データを与えればうまいこと学習してくれるようなマスターアルゴリズムはまだ見つかってないが、きっと見つかるはずという感じの内容でした。Jeff Hawkins の On Intelligence にも少し触れていて、脳を解明すればマスターアルゴリズムになるというのはありえる話だと思います。
ここからはこれらを読んだりしての思ったことですが、現状の深層学習が人間の脳やマスターアルゴリズムに対して、足りない部分はまだまだあるような感じはします。でも、おそらくここ数十年くらいでそれが見つかるような気はするので、そんなに遠いものではないと思っています。あかちゃんを見ていると教師なしの学習は必須だろうし、それには生成と認識をセットでの学習が必要なんじゃないかと思っています。あと、連続の空間の中で、オブジェクトを認識するのはリファレンスフレームのような仕組みがカギになりそうな気がしたのでもう少し考えてみたいところです。
On Intelligence の中で主張していた階層性ですが、A Thousand Brains の中では控え目になって迷いがあるような記述になっていたのが印象的でした。個人的には階層性自体はある程度必要だと思っていて、階層性ある方が納得できる部分が多いような気がします。あと、A Thousand Brainsにはリファレンスフレームについては書いてありますが、記憶をどう最適化するかについては触れてなかったように思います。記憶の階層性があるととして、それをどう最適化するかというは重要なポイントなんじゃないかと思ったりしています。特に階層で抽象化する場合、どの情報を重視し、どの情報を「捨てる」かとかも重要な気がします。
大学院の研究自体はほとんど進んでなく、すでに3年過ぎてしまって博士を卒業することなんてできないかもという感じはしてきたところです。ただ、Jeff Hawkinsのようにいろんなアプローチがあってもいいと思いますし、この世界まだまだ面白そうなところはあって、そんなに遠すぎる感じもしないので、興味が続く限りはしばらくひっそりと続けていこうと思います。