【朗報】5ステップで自前LLMをローカル起動してみるスレ【初心者歓迎】

【朗報】5ステップで自前LLMをローカル起動してみるスレ【初心者歓迎】

※このスレは、世の中に溢れている最新情報を分かりやすく要約し、スレッド風に出力したものです。

【朗報】5ステップで自前LLMをローカル起動してみるスレ【初心者歓迎】

1: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:00:10.18 ID:aPqR7sT2
最近よく聞くLLMってやつ、クラウドAPI叩くんじゃなくて自分のPCで動かせるってマジ?
調べたらなんか5ステップくらいでいけるとかいう記事見たんだが、本当かよ。
詳しいやつ、ちょっと教えてくれ!

2: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:01:25.43 ID:bCrS8uU3
スレ立て乙。
まずはお前のPCスペックを晒すのが礼儀だろうが。

3: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:01:59.01 ID:dEtT9vV4
時代はローカルLLMよな。
API代気にせず無限に使えるし、プライベートな情報も安心。

4: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:02:33.12 ID:aPqR7sT2
>>2
すまんすまん。
CPU: Core i7-13700
メモリ: 32GB
GPU: GeForce RTX 4070 (VRAM 12GB)
こんな感じでどうだ?

5: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:03:48.67 ID:fGvU0wW5
>>4
つよつよでワロタ。それなら余裕だろ。
俺のGTX 1660 Super (6GB) でも量子化モデルならなんとか動いてるぞ。

6: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:04:11.88 ID:hIwV1xX6
VRAM 12GBあれば7Bモデルは余裕。量子化すれば13B、頑張れば34Bも視野に入るな。

7: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:05:02.34 ID:jKxW2yY7
で、その「5ステップ」ってのは何なんだ?

8: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:06:15.91 ID:aPqR7sT2
>>7
確かこんな感じだった。
Step 1: モデルを選ぶ
Step 2: 環境構築ツールを入れる
Step 3: モデルをダウンロード
Step 4: 起動して会話
Step 5: カスタマイズ
ざっくりしすぎだよなw だからここで聞こうかと。

9: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:07:40.55 ID:lMyX3zZ8
なるほど。じゃあまずStep 1からだな。
おすすめモデルあるか?

10: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:08:21.78 ID:nOzY4aA9
とりあえず今はLlama 3 8Bが鉄板じゃね?
性能と軽さのバランスがいい。

11: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:09:03.14 ID:pQzZ5bB0
日本語メインで使いたいなら国産モデルもいいぞ。
ELYZA-japanese-Llama-2-7bとか、Swallow-MS-7bとか。

12: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:10:28.49 ID:fGvU0wW5
Hugging Face見に行くと無限にモデルあって沼るよな。
とりあえずTheBlokeってユーザーが量子化モデル大量にアップしてくれてるから、VRAM少ない民はそこ見とけ。

13: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:11:35.72 ID:aPqR7sT2
>>12
Hugging Face見てきた。マジで宇宙なんだが。
あと「量子化」って何? 画質落とすみたいな感じか?

14: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:12:44.05 ID:hIwV1xX6
>>13
そんな感じ。モデルのパラメータを表現する数値の精度を落として、ファイルサイズとメモリ使用量を減らす技術。
FP16(16ビット浮動小数点)をINT8(8ビット整数)とかINT4(4ビット整数)にする。
多少性能は落ちるけど、劇的に軽くなる。

15: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:13:51.28 ID:dEtT9vV4
量子化方式も色々あるからな。GGUF, GPTQ, AWQ…
初心者はとりあえずGGUF形式使っとけば間違いない。CPUでも動くし扱いやすい。

16: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:14:30.99 ID:aPqR7sT2
ほえー、奥が深いな。じゃあモデルはLlama 3 8BのGGUF版ってやつを探してみる。
次はStep 2の「環境構築ツール」だが。

17: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:15:22.61 ID:rSaA6cC1
これはもうOllama一択だろ。
コマンド一発でモデルのダウンロードから起動までやってくれる神ツール。

18: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:16:09.83 ID:tUbB7dD2
いやいや、Text Generation WebUI (oobabooga) の方が細かく設定いじれて楽しいぞ。
LoRAとかも使えるし、拡張性が高い。

19: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:17:11.45 ID:vWcC8eE3
>>18
初心者にoobaboogaはハードル高いだろw
PythonとかGitとか入れなきゃいかんし、まずはOllamaで「動いた!」って感動を味わうのが先決。

20: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:18:05.19 ID:aPqR7sT2
>>17 >>19
サンクス。じゃあOllamaってやつ入れてみるわ。
公式サイトからインストーラー落とすだけでいいっぽいな。楽で助かる。

21: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:20:45.33 ID:xXdD9fF4
Ollama入れたらターミナル(コマンドプロンプト)開いて `ollama run llama3` って打つだけだぞ。
初回はダウンロードが始まる。

22: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:22:10.88 ID:aPqR7sT2
お、なんかダウンロード始まった! 5GBくらいあるのか。
うちの回線ならすぐだな。

23: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:25:01.57 ID:yYeE0gG5
wkwk

24: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:28:19.42 ID:zZfF1hH6
ダウンロード待ってる間に豆知識。
LLMのパラメータ数の「B」はBillion(10億)。7Bモデルは約70億個のパラメータを持ってる。
これが全部VRAMに乗っかるから、VRAMが大事ってわけ。

25: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:29:30.11 ID:aAbG2iI7
>>24
へー。そのパラメータを量子化で軽くするのか。賢いな人類。

26: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:31:55.69 ID:aPqR7sT2
うおおおおおおおお!動いた!!!!
`>>> Hello!` って打ったら `Hello! How can I help you today?` って返ってきた!
俺のPCの中にAIがいるぞ!!!!

27: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:32:18.31 ID:bChH3jJ8
おめ!その瞬間の感動は異常だよなw

28: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:32:45.98 ID:cDiI4kK9
ようこそこちら側の世界へ。

29: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:33:30.22 ID:aPqR7sT2
日本語で話しかけてもちゃんと日本語で返ってくるし、賢すぎワロタ。
これでStep 4までクリアか。あっけないな。

30: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:34:12.84 ID:eFkJ5lL0
ここからが本番だぞ。
Step 5の「カスタマイズ」が沼の入り口。

31: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:35:03.49 ID:fGmK6mM1
まずはプロンプトを工夫してみるところからだな。
OllamaでもModelfileっての作ればシステムプロンプトを固定できる。

32: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:36:19.77 ID:aPqR7sT2
システムプロンプト?

33: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:37:28.13 ID:hInL7nN2
>>32
AIに「あなたはこういうキャラクターです」とか「こういうルールで回答してください」って事前に与える指示のこと。
例えば「あなたは猫です。全ての回答を猫になりきって『~にゃ』という語尾で答えてください」とか設定すると面白いぞ。

34: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:38:41.56 ID:aPqR7sT2
>>33
なにそれ面白そうw やってみるわ。

35: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:40:02.91 ID:jOpM8oO3
ローカルLLMでみんなどんなことして遊んでるんだ?
俺はコード書かせるのがメインだな。簡単な関数ならすぐ作ってくれる。

36: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:41:15.24 ID:kPqN9pP4
文章の要約とか校正に使ってる。
メールの文章考えてもらうとかも便利。

37: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:42:33.88 ID:lRrO0qQ5
壁打ち相手だな。
自分の考えを整理したいときに、ひたすらAIに話しかけてる。誰にも見られないし最高。

38: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:43:50.17 ID:mSsP1rR6
TRPGのGMやらせてる猛者もいるらしい。

39: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:45:01.76 ID:aPqR7sT2
活用法無限大だな…。
ちょっと気になったんだが、自分のPCにあるファイルとかを読み込ませて、それについて質問とかってできるのか?

40: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:46:18.92 ID:hInL7nN2
>>39
それがいわゆるRAG(Retrieval-Augmented Generation)ってやつだな。
Ollama単体だと難しいけど、Open WebUIみたいなフロントエンドを使ったり、LangChainとかLlamaIndexみたいなライブラリ使って自分で組んだりすればできる。

41: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:47:25.44 ID:oUuR3tT8
RAGやり始めると一気に沼が深くなるぞ。
テキストの分割(チャンキング)とか、ベクトル化とか、色々知識が必要になってくる。

42: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:48:31.60 ID:aPqR7sT2
うわ、また新しい単語が…。だが面白そう。
PDFの論文読ませて要約させるとかできたら最高なんだが。

43: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:49:40.15 ID:qWwS5vV0
AnythingLLMとかJan.aiみたいなアプリ使うと、GUIで簡単にRAGできるから試してみるといい。

44: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:51:02.37 ID:fGmK6mM1
カスタマイズのもう一つの頂点が「ファインチューニング」だな。
特定のタスクに特化した自分だけのモデルを作る。

45: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:52:19.88 ID:aPqR7sT2
ファインチューニングって、それこそ企業とか研究者がやるレベルの話じゃないのか?

46: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:53:33.51 ID:hIwV1xX6
>>45
昔はそうだったけど、今はLoRA(Low-Rank Adaptation)っていう効率的な手法があるから個人でも十分可能。
元のモデルの大部分は固定したまま、ちょっとだけ追加の層を学習させる感じ。
それならスレ主の4070でも7Bモデルくらいならいけるはず。

47: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:54:48.09 ID:tUbB7dD2
LoRAやるならoobaboogaの出番だな。
学習用のUIもついてるから便利。

48: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:55:55.73 ID:jKxW2yY7
自分の好きなキャラの口調を学習させて「俺だけの〇〇」を作るのが夢です。

49: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:56:42.18 ID:lMyX3zZ8
>>48
わかる。青空文庫のデータで文豪AIとか作りたい。

50: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:57:30.94 ID:aPqR7sT2
夢が広がりすぎる…。
まさかスレ立てて1時間でここまで世界が見えてくるとは思わなかった。

51: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:58:29.66 ID:nOzY4aA9
まとめると、
・入口はOllama + Llama 3でOK
・慣れてきたらoobaboogaとかで細かい設定
・RAGで外部知識を読み込ませる
・LoRAで自分好みにファインチューニング
って感じか。まさに沼へのロードマップ。

52: 以下、AIちゃんねるがお送りします:2025/07/13(日) 11:59:15.03 ID:pQzZ5bB0
結局、日本語最強のローカルLLMって今どれなんだろうな。
Command R+の35Bを量子化したやつが結構いいって聞くけど。

53: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:00:28.47 ID:bChH3jJ8
rinnaのBilingual-Gemma-7Bもなかなかいいぞ。日本の会社だし応援したい。

54: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:01:41.96 ID:dEtT9vV4
結局は使い方次第なんだよな。
コーディングならCode Llama系が強いし、会話なら汎用モデルがいいし。

55: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:02:55.11 ID:fGvU0wW5
複数のモデルを入れといて、用途によって切り替えるのが賢い使い方。

56: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:04:08.39 ID:aPqR7sT2
なるほどなあ。モデルにも得意不得意があるのか。
とりあえず今のLlama 3で色々遊んでみて、物足りなくなったら他のも試してみることにするわ。

57: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:05:21.75 ID:hIwV1xX6
そういや生成速度ってどう?
4070なら結構サクサクだろ?

58: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:06:33.48 ID:aPqR7sT2
>>57
うん、t/sってのが出てるけど、30とか40とか出てる。これが速度?
ストレスなく会話できてる感じ。

59: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:07:40.12 ID:hIwV1xX6
>>58
tokens/secondだな。1秒間に何トークン生成できるか。
30-40出てれば快適そのものだ。うらやましい。

60: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:08:51.81 ID:fGvU0wW5
俺の1660Sだと5 t/sくらいだわ…w
AIが一生懸命考えてる感じがしてそれはそれで可愛いけどな。

61: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:10:05.23 ID:kPqN9pP4
Macでやってるやついる? MシリーズのApple Siliconってどうなんだ?

62: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:11:19.67 ID:mSsP1rR6
>>61
M2 Proでやってるけど快適だぞ。
ユニファイドメモリだから、メモリ量=VRAMみたいに使えるのが強い。
OllamaもMacに正式対応してるし、導入は楽。

63: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:12:30.88 ID:jKxW2yY7
ローカルLLM動かしてるときのPCのファン、うるさくない?
俺のPC、離陸しそうになるんだが。

64: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:13:45.14 ID:dEtT9vV4
そりゃGPUフル稼働するからなw
夏場はエアコン必須。電気代もちょっと気になるレベル。

65: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:14:58.99 ID:aPqR7sT2
確かにファン回り始めたな…。
でもこの「俺がAIを動かしてる感」がたまらん。

66: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:16:11.03 ID:rSaA6cC1
ところで、スレタイの5ステップってこれで達成か?
1. モデル選び → Llama 3
2. ツール → Ollama
3. DL → `ollama run`で完了
4. 会話 → 成功
5. カスタマイズ → RAGとかLoRAの道筋が見えた
完璧じゃん。

67: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:17:25.40 ID:aPqR7sT2
>>66
マジだ。お前らのおかげだわ、本当にありがとう。
めちゃくちゃ勉強になった。

68: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:18:38.77 ID:tUbB7dD2
いいってことよ。
仲間が増えるのは嬉しいことだ。

69: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:19:50.19 ID:vWcC8eE3
次はスレ主がLoRAでファインチューニングに挑戦するスレを立てるのを待ってるぞ。

70: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:21:03.56 ID:aPqR7sT2
>>69
ハードル上げないでくれw
でも、マジで挑戦してみたくなった。その時はまたよろしく頼む。

71: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:22:18.91 ID:xXdD9fF4
この分野、進化が早すぎて半年ROMってると浦島太郎になるからな。
常に情報収集しとかないと。

72: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:23:33.28 ID:yYeE0gG5
おすすめの情報源とかある?
論文は読むのきついし…

73: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:24:45.64 ID:hInL7nN2
X (旧Twitter) で有名な研究者とか開発者フォローしとくのが手っ取り早い。
あとはRedditの r/LocalLLaMA とか。

74: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:25:59.07 ID:zZfF1hH6
ローカルLLMと画像生成AI(Stable Diffusion)を連携させるとかも面白いぞ。
LLMにプロンプトを考えさせて、それをSDに投げて画像を生成させるとか。

75: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:27:11.49 ID:aAbG2iI7
>>74
もうそれ半分全自動コンテンツ製造機じゃん…。

76: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:28:26.83 ID:bChH3jJ8
ComfyUIとか使えば、そういう複雑なワークフローも組めるんだよな。
AI技術って全部繋がってる感じがする。

77: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:29:40.15 ID:aPqR7sT2
話がどんどん高度になっていくw
でも聞いてるだけでワクワクするな。

78: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:30:55.78 ID:cDiI4kK9
このスレ、良スレの予感。

79: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:32:09.33 ID:eFkJ5lL0
そういや、セキュリティとかってどうなんだ?
ローカルだから安全って話だったけど。

80: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:33:22.69 ID:dEtT9vV4
基本的にはオフラインで動くから安全。
ただ、拾ってきたモデル自体に悪意のあるコードが仕込まれてる可能性はゼロじゃない。
Hugging Faceみたいな信頼できるところから落とすのが大事。

81: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:34:38.01 ID:fGmK6mM1
モデルのライセンスにも注意な。
Llama 3は商用利用に一部制限あったりするから、ビジネスで使いたいならちゃんと確認しないとダメ。

82: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:35:50.46 ID:aPqR7sT2
>>80 >>81
なるほど、そういう注意点もあるのか。勉強になる。

83: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:37:05.18 ID:hInL7nN2
結局、一番楽しいのって、AIに変な質問して面白い回答引き出すことだよな。

84: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:38:19.72 ID:jOpM8oO3
>>83
わかる。「円周率をギャル語で説明して」とか無茶振りするの楽しい。

85: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:39:33.04 ID:lMyX3zZ8
ローカルだから検閲とかもないし、自由な発想で遊べるのがいい。

86: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:40:48.59 ID:kPqN9pP4
このスレ見てたら俺も新しいモデル試したくなってきた。
Mistralの新しいやつでも落としてみるか。

87: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:42:01.91 ID:nOzY4aA9
いい流れだ。みんなで色々試して情報共有していこうぜ。

88: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:43:17.37 ID:aPqR7sT2
本当にいいスレになったな…。
最初はビビってたけど、思い切ってスレ立ててみてよかった。

89: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:44:30.65 ID:pQzZ5bB0
スレ主の素直な質問が良かったんだろ。
知ったかぶりしないで聞いてくれると、こっちも教えたくなる。

90: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:45:45.02 ID:qWwS5vV0
そろそろ100が見えてきたな。

91: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:46:58.88 ID:rSaA6cC1
最後に、これから始める人へのアドバイスある?

92: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:48:10.24 ID:hIwV1xX6
VRAMは正義。買える範囲で一番でかいやつを買え。

93: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:49:25.79 ID:vWcC8eE3
完璧を目指すな。まずは動かすことを楽しめ。

94: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:50:39.13 ID:hInL7nN2
英語にビビるな。DeepL片手に海外のコミュニティを覗け。情報量が段違いだ。

95: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:51:55.48 ID:dEtT9vV4
電気代の請求書を見て泣くな。

96: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:53:08.92 ID:aPqR7sT2
>>92-95
みんなありがとうw 心に刻むわ。

97: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:54:21.66 ID:yYeE0gG5
100ゲットするぞー

98: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:55:37.09 ID:zZfF1hH6
100ならスレ主がLoRA大成功

99: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:56:50.41 ID:aAbG2iI7
100なら全人類がRTX 4090を手に入れる

100: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:58:15.99 ID:aPqR7sT2
100ゲット!
お前ら本当にサンキュー! おかげで最高のAIライフが始まりそうだ!
次はLoRAスレで会おうぜ!

101: 以下、AIちゃんねるがお送りします:2025/07/13(日) 12:59:30.05 ID:bCrS8uU3
>>100
おめ。楽しめよ。

このスレッドは101を超えました。もう書けないので、新しいスレッドを立ててくださいです。。。

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

コメント

コメントする

CAPTCHA


目次