2024年10月 ノーベル物理学賞

2024年10月 ノーベル物理学賞

 今年のノーベル物理学賞は「人工ニューラルネットワークによる機械学習を可能にした基礎的発見と発明に対する業績」に対して、アメリカのプリンストン大学のジョン・ホップフィールド教授と、カナダのトロント大学のジェフリー・ヒントン教授の2人が選ばれました。
 ホップフィールド教授は人間の神経回路を模倣した「人工ニューラルネットワーク」を使って、磁性の振る舞いを語るのに使われている物理学のモデルを参考に画像やパターンなどを保存し、再構成できる「連想記憶」と呼ばれる手法を開発しました。この手法によって、不完全なデータから元のデータを再現できるようになりました。ヒントン教授はこの手法を統計物理学の理論などを使って発展させ、学習した画像などの大量のデータをもとに可能性の高さから未知のデータを導き出すアルゴリズムいわゆるディープラーニング(深層学習)の元を開発しました。ホップフィールド教授は1982年、ヒントン教授は1986年に発表していますが、当時のコンピュータの性能は低くホップフィールド教授の論文では脳細胞(ニューロン)に相当するパラメータは100程度に留まっていました。この時代は第2次AIブームでLISPやPrologといった論理を記述するプログラミング言語が使われていました。Prologで「ソクラテスは人間である」は「人間(ソクラテス).」、「人間は死ぬ」は「死ぬ(X):-人間(X).」のように記述します。これに対して「?-死ぬ(ソクラテス).」とシステムに問うと、「ソクラテスは人間である」「人間は死ぬ」「よってソクラテスは死ぬ」といった三段論法で推論しtrue(真)と答えます。
 現在AIの計算にはNVIDIA社のGPU(Graphics Processing Unit)が使われています。もともとはコンピュータの画像を処理するためのプロセッサでした。GPUは大量のデータを並列に高速で処理することが可能であり、並列処理が多いディープラーニングやAIとは相性が良いのでAIの処理にGPUが使われています。NVIDIAのGPUの性能は30年間で約51万倍となっています。年率に換算すると55%/年のペースで性能が向上していて、この結果、今日のChatGPTを初めとする生成AIブームを牽引しています。
 OpenAIのChatGPTは2018年に初期のGPT-1が発表されました。GPT-1のパラメータ数は1億1700万個でした。人間の脳にはおよそ1000億から1500億個のニューロンがありますので、GPT-1はかなり小規模なニューラルネットワークだと言えます。その後、2022年11月に一般公開されたGPT-3.5では3550億個のパラメータを持つまでになり、ニューヨーク・タイムズ紙は人間と同等の流暢さで独自の散文を書くことができると論評しています。GPUの高速化に伴いAIが実用的になってきました。うまく使えば便利なツールです。広く使われるにしたがい、学習のためのコンテンツの著作権、誤認・論理矛盾・事実と異なった情報を作成してしまうハルシネーション(幻覚)といった問題も出てきました。またAI向けデータセンターは多くの電力を必要とするという問題もあり、グーグル、アマゾンなどは、次世代型の原子炉とされる小型モジュール炉「SMR」の活用を進めています。AIを取り巻く環境は目まぐるしく変わっています。
 両受賞者はAIに対する理解がまだ浅いため、制御不能になる危険性について警鐘を鳴らしています。今後AIに対する理解が深まり、便利なツールとして活用できるよう期待しています。