ハルシネーション…ときどき嘘をつく隣人との付き合い方
生成AI・大規模言語モデルのしくみ(6)大規模言語モデルの4つの能力
言語モデルが大規模化することで、開発者も予想していなかったような能力を発揮している生成AI。今回は、生成AIが「学習のしかた」を学習することで身につけたさまざまな能力を紹介する。また、誤情報を出力してしまう「ハルシネーション(幻覚)」を含めた、生成AIとの付き合い方も考える。(全6話中第6話)
※インタビュアー:川上達史(テンミニッツTV編集長)
株式会社Preferred Networks 共同創業者、代表取締役 最高研究責任者
生成AI・大規模言語モデルのしくみ(6)大規模言語モデルの4つの能力
言語モデルが大規模化することで、開発者も予想していなかったような能力を発揮している生成AI。今回は、生成AIが「学習のしかた」を学習することで身につけたさまざまな能力を紹介する。また、誤情報を出力してしまう「ハルシネーション(幻覚)」を含めた、生成AIとの付き合い方も考える。(全6話中第6話)
※インタビュアー:川上達史(テンミニッツTV編集長)
生成AI・大規模言語モデルのしくみ(5)言語モデルの大規模化とTransformer
大規模言語モデルを成功させた要因の1つに“Transformer”と呼ばれる言語モデルの登場がある。Transformerは、必要な情報を取り出す「注意機構」と、長期的な記憶から情報を探索する「MLPブロック」によって構成されるのだが、この“Transformer”の場合は、大規模化することで、どこまで性能が上がるかがクリアにわかるようになった。それが「べき乗則」と呼ばれるものである。そして、さらに予想外のことも起こっているという。いったいどういうことなのか。Transformerモデルの画期性とともにその詳細を解説する。(全6話中第5話)
※インタビュアー:川上達史(テンミニッツTV編集長)
生成AI・大規模言語モデルのしくみ(4)「自己教師あり学習」のしくみ
「自己教師あり学習」によって、出力の精度を高める生成AI。その学習の過程では、いったいどのようなプロセスが行われているのだろうか。そのことについて、わかりやすく解説していく。さらに、実はAIは、「宝くじ仮説」で大量のデータを元にした無数の仮説を削っていったり、「注意機構」と呼ばれるしくみによって必要な情報を取り出したりしているという。いったいどういうことなのか。生成AIの推論術を解説する。(全6話中第4話)
※インタビュアー:川上達史(テンミニッツTV編集長)
生成AI・大規模言語モデルのしくみ(3)言語モデルと「自己教師あり学習」
生成AIによる出力の精度を飛躍的に向上させた大規模言語モデル。はたしてこれまでの言語モデルとはどのような違いがあるのか。1940年代に出た言語モデルの原型を手始めにその仕組みを解説しながら、大規模言語モデルの画期性を解き明かす。キーワードは「自己教師あり学習」だ。(全6話中第3話)
※インタビュアー:川上達史(テンミニッツTV編集長)
生成AI・大規模言語モデルのしくみ(2)機械学習と大規模言語モデル
機械学習とは何なのか。AIはどのように「理解をしている」のか。近年の著しい進歩により、ますます身近な存在になっている生成AIだが、それがどのようなメカニズムでさまざまなデータを出力しているのかを知る機会は少ない。そういった、私たちの素朴な疑問を通じて、生成AIへの理解を深めるとともに、生成AIの1つの代表的なモデルである「大規模言語モデル」についての知識を広げよう。(全6話中第2話)
※インタビュアー:川上達史(テンミニッツTV編集長)
生成AI・大規模言語モデルのしくみ(1)生成AIとは何か
ChatGPTをはじめとした生成AIは、いまや日進月歩で進化を続けており、私たちの生活や仕事にも活用されるようになってきている。生成AIはアメリカ発のテクノロジーであるイメージが強いが、日本国内でもその開発を行う企業がある。今回は、その筆頭であるPreferred Networks社の最高研究責任者である岡野原大輔氏を招き、生成AIを基礎から学んでいこう。(全6話中第1話)
※インタビュアー:川上達史(テンミニッツTV編集長)