自分のPCでローカルLLMを動かすことは行うべき重要なユーザー体験
まとめ
- 有料版の最新生成AIやAIエージェントはもちろん凄いが、PCのメモリに収まる無料のローカルLLMもなかなか使える
- 自分のPCで自分のLLMを動かす経験は実際感動するよ
ふたり言
生成AIの話って進化が速すぎるのでブログ記事にするのどうかなって思うところはあるね。

沢山の人が注目しているサイトじゃないから、直ぐに陳腐化するわ。

だから、トレンドを追いかける記事じゃなくて、押さえておくべき学習の要点みたいな長く読める内容にしたいね。

でも、ローカルLLMってまさにトレンド最先端ってやつじゃないの?
中国のDeepseekショックに始まって、中国勢がPCに収まる高性能LLMをオープンソースでばんばん出してきて、ついにOpenAIも追随したのよね。

まあ、モデルはどんどん進化するんだけどさ。大事なのはユーザー体験として自分のPCに生成AIを閉じ込めて動かしたり、自分のPCを起点に自分の生成AIを動かす経験をするってことさ。
するとなんだかんだ課題にぶつかるので具体的な問題解決プロセスを経験することになるから、とにかく勉強になるんだよ。
別にローカルLLMじゃなくて課金してAPI使ってもいいんだけどね。それはそれで勉強になるけどローカルLLMならではの学びポイントがあるということ。

それで、具体的にはどうするの?

Haggingfaceからモデルをダウンロードしてセットアップするのが手作り感満載だけど、いきなりだとちょっとハードルが高い。
だから、モデルはOllamaのを使うと良いよ。細かい設定部分がまるっとラップされていて本当にこれでいいの?というあっけなさでローカルLLMが動く。
それから、ブラウザでChatGPTみたいに使いたいって思ったら、OpenWebUIというプラットフォームを活用すると良い。
それもこんなんでいいの?って簡単さでOllamaのローカルモデルがブラウザでサクサク動く。
加えてRAGもネット検索もマルチモーダルもなんでもできちゃう。細かいこと言わなければChatGPTそのものさ。

間違いなく楽しそうだわ。
みんなも各々の公式サイトを検索して指示通りインストールして動かしてみてね。
GPUの有り無しとかメモリのサイズとかで動くモデルに違いがあったりするけど、それも実際に体験してみるといいわ。

