nikkie-ftnextの日記

イベントレポートや読書メモを発信

ミリシタを楽しむ私の身に起きた"RAG" 〜北沢志保さんのメモリアルコミュを例に〜

はじめに

アソビストアでLOVEしたい! nikkieです。

趣味のミリシタエントリを書いていきますが、LLMを追っている立場から技術トピックと悪魔合体させます。
ミリオンライブの楽しみ方は"RAG"なんだな〜と思い始めているという内容です(この時点でだいぶ意味わからんくてごめんなさい!)

※志保さんについてはネタバレなしでお送りします。どうかメモリアルコミュを見てくだされ〜🙏

目次

Retrieval Augmented Generation

RAG(らぐ)と呼ばれるやつです

松尾研 LLM 大規模言語モデル講座 2023、第2回の資料より(画像は57スライド目)1
https://weblab.t.u-tokyo.ac.jp/llm_contents/

引用したのは、Retrieval Augmented Language Modelを説明するスライドです。

Language Model(言語モデル)は文章の続きを生成できます。
この例2では「検索された文章」も与えることで、訓練時にモデルが見ていなかった情報だとしても(ハルシネーションなく)精度の高い生成をしています。

  • 入力「サッカーのワールドカップ 2022は32チームで競われた最後となった。チーム数が増加して」
  • 検索された文章「FIFAワールドカップ 2026は48チームに拡大される」
  • 検索された文章を考慮して続きが作れる「(チーム数が増加して)2026年のトーナメントでは48チームで競われる」

ChatGPTをはじめとするinstruction tuning3(やアラインメント)されたLLM(Large Language Model)は、質問に対して回答してくれます(=チャットができます)。
過去にGPTとアニメ(ムビマス)についておしゃべりしました。

アニメについておしゃべりするためにRAGを使っています。
instruction-tuned LLMにも質問内容に関連する「検索された文章」を与えることで、より正確な回答が得られるようになるわけですね4

LLMに入力されるテキストはプロンプトと呼ばれます5
RAGでは「検索された文章」も含めたプロンプトがLLMに与えられます。
精度の高い回答を生成するために参照してほしい情報をプロンプトに含めるわけですね(このあたりは「コンテキスト(または文脈)に含める」とも言われる印象)。

このようにLLMのRAGを知っていたわけですが、ミリオンライブを追っている私の身にも近い事象が起きているように思われるのです。

ミリオンライブを楽しむnikkieに起きた"RAG"

ムビマス(劇場版「THE IDOLM@STER MOVIE 輝きの向こう側へ!」)は2014年の作品です。
当時はグリマス(GREEで提供されたミリオンライブ)で仕掛け人に精を出していた6頃で、ムビマスも(ミリオンライブのメンバーが出るので)鑑賞しました。

一度見て以降「私は天海春香だから」がめちゃめちゃ好きで、繰り返し見ましたし、そこからの学びのLTもしています。

さて、ムビマスで印象的なセリフには、北沢志保さんの「もう時間がないんです」もあります。
(上のRAGの記事でも検証に使っています)

ムビマスが世に出てから10年くらい、私はムビマスの情報のみで「もう時間がないんです」を解釈していました。
当時はエミリーちゃんしか興味なかったので志保さんのコミュはスルーしてましたし、2023年のミリアニを機に復帰したミリシタでは、イベントで報酬を集めるのにいっぱいいっぱいで、コミュを見る時間がなかなか作れていませんでした。

そこに先日、コミック Blooming Clover連動イベントが開催されます。
これがもうめちゃめちゃよかったんですね。

nikkieはここで初めてBlooming Cloverを手にしました7
Blooming Cloverでは志保さんはかなり掘り下げられていて、初めて知ったことがいくつもありました。

その後志保さんのミリシタのメモリアルコミュも一気見します。
先のツイートを再掲

志保さんの背景が補完された今、「もう時間がないんです」の印象がもう全然違うんですよ!

  • これまでずっと「志保さん、噛みつくなー。焦ってるんだな〜。どうどう」(<- 10年間何も分かってなかった自分を殴りたい)
    • 文脈(=nikkieへの入力情報)はムビマスのみ
  • Blooming Cloverやメモリアルコミュを見て「志保さん、ううう😭。そういう、そういうことね。焦る事情があるのね😭😭」
    • 文脈はムビマス + 志保さんのコミュやBlooming Clover

ムビマスの「もう時間がないんです」は(この10年)全く変わっていません。
ところが、私の脳内の志保さん関連情報が厚くなったことで、涙なしには見られない1シーンとなってしまいました。
文脈に追加された情報によって言語モデルの出力の精度が上がるRAGと似ているような気がします。

そしてミリオンライブのアニメ(ミリアニ)には、綿田監督をはじめ制作陣がこの10年を詰め込んでいます。
こちらも志保さん、ううう😭

終わりに

ミリオンライブの楽しみ方は"RAG"、その心は

  • 北沢志保さんについて、メモリアルコミュやコミカライズで背景情報を知った
  • その結果、ムビマスは何も変わっていないが、志保さんの「もう時間がないんです」が全く違う印象になった
  • 文脈に追加情報を与えられることで精度が上がるRAGのよう!

この経験はミリオンライブに一段深くハマる経験でして、「メモリアルコミュをもっと見なければ」という想いを強くしています。
コミュを見ていけば、ミリアニでも綿田監督たちの想いをもっと紐解いていけるんじゃないかなと楽しみでなりません(もちろんこれからのライブも!)

最後に。
この記事を元にして、7月のエンジニアニメで学びを話す予定です。
グリーさんで僕と握手!

(が、私は移り気すぎるので話す内容の保証はございません!)


  1. LLM 大規模言語モデル講座 講義資料 © 2023 by 東京大学松尾研究室 is licensed under CC BY-NC-ND 4.0
  2. スライド中にも出典の記載がありますが、こちらの論文のFigure 2です
  3. Instruction Tuningの今の理解まとめ
  4. RAGは盛んに研究されていて精度を上げる工夫が無数に登場しています。一例
  5. プロンプトについて
  6. 数回だけエミリーちゃんをトップアイドルにしました(当時トップアイドルは週次集計)。なお、誘ってくださった方は私のあまりののめり込みように、誘ったことを後悔していました
  7. ニコニコ静画で見られたタイミングで、奇跡的な出会いでした。がんばれニコニコ運営❤️