AIをカスタムするファインチューニングとRAG

SunShine!
SunShine!

最近AIイラストにハマってるわけだが。
AIというかLLMのガチな話。どうやってカスタマイズするの?って。
ファインチューニングとRAGがあるって言われてもねぇ。。

サイバー

AI
ファインチューニングとRAG

LLM(Large Language Model: 大規模言語モデル)を使うだけだと、すごく一般的になっちゃう。
どうやって自分たちに合ったものにしてくかってことで。
その手法には大きく2種類の考え方があるよねってこと。

ちゃんと勉強したほうがいいよね。
最新の情報に触れたいから、本を買うよりもインターネットの世界が向いてるかも。

AIのカスタマイズ

AIを使うよってなったとき、問題になりかねないのはLLMの対応状況。
大規模言語モデルと言えど、自社のことは知らない。
自分たちのことをどうやってそのAIに知ってもらうかってのは、カスタマイズだよね。

サイバー

そのときの考え方に、ファインチューニングというものとRAGというものがあるよ。
ファインチューニングのいち手法として、LoRAってのがあるよ。

LLMってのは大規模言語モデルのことで。
ざっくり見るだけなた、LLMがAIの本体とでも考えとけばいいよ。
最近の生成AIはほぼLLMだし。

ファインチューニングとRAG

LLMをどうカスタイズするかって話。

ファインチューニングとRAGの特徴などをまとめる。
似てるようでいて、アプローチが異なるから。
違うものなんだよね。

ネットワーク

最近よく見てる「LoRA」もここで考えること。
ファインチューニングの一種。

モデルとして、GPTを例にして考えちゃう。

ファインチューニング

LLMを再訓練すること。

GPTを再訓練するってこと。
だから、ゲスト環境は別セグメントにすることが多いんだよ。

脳

LLMを置いておく場所が必要。
ファインチューニング用のデータが必要。

カスタマイズしたいそのときのたびに、既存のLLMを教育する。
LLM自体が大きくなっていく可能性あり。
考える脳みそ自体を強化するから、遅延は少なく、フィードバックで再教育しやすい。

ファインチューニングのひとつがLoRA

LoRAはファインチューニングの手法のひとつ。
Low-Rank Adaptation
日本語だと、低ランク適応

モデルはそのままにして、ランクの低い行を追加してくことによって、効率的に再教育するような感じ。

AIイラスト

元のLLMには手を加えない感じ。
まるでRAGのようだ。

RAG(Retrieval-Augmented Generation)

LLMはそのままに、外部の情報を使って精度向上を図る考え方。検索拡張生成とも。

LLM自体の辞書には手を加えない。
仕組みとして、外部ファイルも3k省するように設定変更が必要。

本

外部の情報を検索しに行くから、LLMからの応答に時間を要する場合がある。
レイテンシーってやつ。遅延しちゃうの。

最新情報に更新しやすいよね。

長文を渡したら、勝手にインデックス貼ってくれて、回答に使用してくれる、みたいな感じ。

どっちを使うか考えてみよう

ファインチューニングにもRAGにも、メリットとデメリットがある。
それぞれ見極めて選ばねば。

バイナリ

速さ、専門性、実装難易度とかで考えるんだろうか。
がんばってくれ。

AIイラストを描いてもらいながら、もうちょっとRoLAを使おうかなって思う。

ご意見やご感想などお聞かせください! コメント機能です。

タイトルとURLをコピーしました