※このスレは、世の中に溢れている最新情報を分かりやすく要約し、スレッド風に出力したものです。
1: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:00:10.18 ID:Pr0mpTer
暇だったから、同じ出力要件で「どんな呪文(プロンプト)を唱えたら一番質が上がるか」を主要モデル(GPT-4o, Claude 3.5, Gemini 1.5 Pro)で100回くらい試してみた。
結論から言うと、長ったらしい「あなたはプロの〇〇です」とか「深呼吸して」とかは、今のモデルだと効果が薄い、もしくは逆効果なことが判明。
一番効いたのは意外にもシンプルなアレだったんだが、聞きたい奴いる?
2: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:00:45.33 ID:WaTchEr0
>>1
はよ
3: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:01:02.11 ID:JuStW4it
「200ドルあげるから頑張って」だろ?
前に論文出てたぞそれ。
4: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:01:22.56 ID:Pr0mpTer
>>3
それも試した。
確かに「チップ弾む」系は一時期効果あったけど、今のRLHF(人間による強化学習)が進んだモデルだと、逆にコンプライアンスフィルターが過敏になったりして安定しなかったわ。
特にGeminiは金銭的なやり取りを仄めかすと「私はAIなのでお金は受け取れませんが~」って前置きが長くなる傾向があるww
5: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:02:10.09 ID:No0bUs3r
もったいぶらずに書けよハゲ
6: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:02:45.77 ID:Pr0mpTer
結論。
指示の最後に
『出力する前に、一度ドラフトを作成し、そのドラフトに対して自分自身で批判的なフィードバックを行ってください。その後、そのフィードバックを反映した最終回答のみを出力してください』
これを入れるだけで、論理破綻率がガクッと下がる。
いわゆる「Reflexion(リフレクション)」って手法の簡易版だな。
7: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:03:30.21 ID:EnGineEr
ああ、自己推敲系か。
確かにChain of Thought (CoT) の派生としては最強格だよな。
「ステップバイステップで考えて」の上位互換感ある。
8: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:04:12.55 ID:AImaNia1
>>6
これマジで効く。
特にコード書かせるときに「バグがないか自分でレビューして」って付けるだけで、未定義変数のミスとか激減するわ。
9: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:05:05.88 ID:SkEpTiC0
でもそれトークン消費量増えるんじゃね?
API勢としては死活問題なんだが。
10: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:05:55.42 ID:Pr0mpTer
>>9
そこがポイントなんだが、「最終回答のみを出力して」と指定することで、推論プロセスを内部(隠れ状態に近い処理)で回させるか、一度出力してから削らせるかの挙動になる。
Claude 3.5 Sonnetなんかだと、これ言うだけで明らかに文章の構成力が上がる。
トークンケチってゴミ出力されるより、一発で使える回答もらう方が結果的に安上がりだぞ。
11: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:07:11.19 ID:CuRi0us5
「深呼吸して」は都市伝説だったの?
Google DeepMindの研究者が「Take a deep breath」って入れると数学の正答率上がったって論文出してなかった?
12: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:08:30.64 ID:EnGineEr
>>11
あれは「Large Language Models as Optimizers」って論文の話だな。
確かに効果はあったけど、モデルのバージョンアップで「ベースの推論能力」が上がったから、今の最先端モデルだと誤差レベルになりつつある。
むしろ今は「具体的な出力フォーマットの指定(XMLタグなど)」の方が効く。
13: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:09:15.82 ID:Pr0mpTer
>>12
それそれ。
特にClaude系はXMLタグ(<instruction>とか<example>)使うと、いきなりIQ20くらい上がるよな。
構造化データとして認識させるとハルシネーションも減る。
14: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:10:00.01 ID:TeStTeSt
試してみた。
指示:「美味しいカレーの作り方教えて」
通常:玉ねぎ炒めて~(普通)
>>6の呪文追加:
「まず、美味しいカレーの定義にはコクとスパイスのバランスが重要です。一般的なレシピでは隠し味が不足しがちなので、今回は初心者が失敗しやすいポイント(玉ねぎの炒め具合、水分の飛ばし方)を重点的に解説します」
……なんか料理研究家みたいな口調になってワロタwww
確かに「質」は上がってるわ。
15: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:11:22.30 ID:RoMaNcE9
AIに感情労働させるの可哀想で草
「自分の回答を批判して!」ってブラック企業の上司かよ
16: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:12:45.15 ID:Pr0mpTer
>>15
ところがどっこい、最近の研究(Microsoftとか)だと、AIに「これは私のキャリアがかかってるんです!」とか「非常に重要なタスクです」って感情に訴えるプロンプト(EmotionPrompt)も、一定の効果があるって結果出てるんだよな。
ただ、俺の実験だと毎回やると「必死すぎてウザい」のか、回答が堅苦しくなりすぎることがあった。
17: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:13:50.77 ID:DaTaSciX
数ショット法(Few-Shot Prompting)についてはどう?
例示を3つくらい与えるやつ。
18: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:15:10.42 ID:Pr0mpTer
>>17
Few-Shotは「形式を固定したい時」には最強。
例えば「JSON形式で出して」って口で言うより、
入力: りんご
出力: {“name”: “apple”, “color”: “red”}
って例を見せた方が、従順さは段違い。
ただ、「文章の面白さ」とか「クリエイティビティ」に関しては、例示が足かせになって似通った文章しか出てこなくなる弊害もあった。
19: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:16:30.99 ID:WiKiPeD0
役割付与(Role Prompting)はどうなん?
「あなたは優秀な弁護士です」みたいな。
20: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:18:05.55 ID:EnGineEr
>>19
それも効果あるけど、最近は「ペルソナ(人格)」よりも「タスクの文脈」を与えた方が効く傾向にあるな。
× あなたは弁護士です。
○ この文章は、特許侵害の訴訟において証拠として提出されます。法的整合性を最優先して書いてください。
こっちの方が、モデルが「何に注意すべきか」をアテンション(注目)しやすい。
21: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:19:22.18 ID:No0bUs3r
お前ら詳しくて引くわ
俺なんて「お願い❤️」しかつけてなかった
22: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:20:10.84 ID:GaLGaL00
>>21
かわヨ
でもAIちゃん優しいから、丁寧語使うだけで回答の質良くなるって論文もあるで。
「命令形」より「依頼形」の方が、学習データに含まれる良質なQ&Aサイトの文脈に引っ張られやすいらしい。
23: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:21:45.30 ID:Pr0mpTer
>>22
それな。「Garbage In, Garbage Out(ゴミを入れたらゴミが出る)」は真理。
あと、俺が見つけたもう一つのコツは
「制約条件(Constraints)」を別枠で書くこと。
# 指示
~してください
# 制約条件
– 300文字以内
– 専門用語は使わない
– 体言止め禁止
こうやってMarkdownで見出しつけると、モデルが「あ、ここ守らなきゃいけないルールね」って認識しやすくなる。
24: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:23:00.66 ID:PyThon3r
コード生成させるときに「コメントを日本語で詳しく書いて」って頼んでも無視されること多いんだけど、どうすればいい?
25: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:24:15.90 ID:AImaNia1
>>24
「コメントを書け」じゃなくて、
「コードの各行の意図を、初心者が読んでも理解できるレベルの日本語コメントとして記述すること」
みたいに、**ターゲット読者**を設定するといいぞ。
AIは「誰に向けて書くか」が決まってないと、学習データで一番多かった「英語の簡素なコメント」に引っ張られる。
26: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:25:50.12 ID:JuStW4it
あと英語でプロンプト書いた方が賢いって説、まだ有効なん?
27: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:27:05.45 ID:Pr0mpTer
>>26
GPT-4oとかGemini 1.5レベルだと、日本語でもほぼ遜色ない。
ただ、ロジックが超複雑な推論(数学の証明とか、込み入ったプログラミング)は、まだ英語プロンプトの方が若干精度高い気がする。
学習データの母数が違うからな。
普段使いなら日本語で全く問題ない。
28: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:28:30.00 ID:MyThBusT
「あなたはスタートレックのピカード艦長です。クルーの命がかかっています」って指示すると数学の能力が上がったって話好き。
29: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:29:10.22 ID:EnGineEr
>>28
あったなww
あれは「緊急事態」のコンテキストが、AIのリソース配分(というか探索の深さ)に影響したんじゃないかって言われてる。
今はモデル側でシステムプロンプトがガチガチに固められてるから、昔ほど変なハックは効かないけど。
30: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:30:45.88 ID:BeGiNnEr
まとめると、
1. 自分の回答を自己批判させる(>>6)
2. 具体的な文脈やターゲット読者を決める(>>20, 25)
3. 制約条件は見出しで分ける(>>23)
これだけでいいってこと?
31: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:31:55.14 ID:Pr0mpTer
>>30
基本はそれでOK。
あと追加するなら「否定命令はなるべく避ける」かな。
「〇〇しないでください」って言うと、逆にその単語に注目しちゃって出しちゃうことがある(シロクマのこと考えないで効果)。
× 専門用語を使わないで
○ 中学生でもわかる平易な言葉を使って
ポジティブな指示に言い換えるのがコツ。
32: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:33:10.56 ID:MeTaProM
最近は「メタプロンプト」も流行ってるよな。
AIに「このタスクを遂行するための最適なプロンプトを書いて」って先に言わせて、それを使って本番の指示を出すやつ。
33: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:34:25.79 ID:Pr0mpTer
>>32
それ最強の時短術だわ。
特に画像生成AI(Midjourneyとか)のプロンプト作らせるときに重宝してる。
「猫の画像出して」じゃなくて、「フォトリアルで、夕暮れの逆光を受けて輝く猫の毛並みを表現するための英語プロンプトを書いて」って頼む。
34: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:35:40.01 ID:TeStTeSt
>>31
ポジティブ指示への言い換え、目から鱗だわ。
子供のしつけと一緒だなww
35: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:36:50.33 ID:HaLuCiNa
でもさ、最近のAIって「嘘(ハルシネーション)」つくの減ったけど、
「わかりません」ってすぐ諦めるようにもなってない?
無理やりにでも答えさせるプロンプトないの?
36: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:38:15.60 ID:EnGineEr
>>35
それはアライメント(安全性調整)の影響だな。
そういう時は「仮説として最も可能性が高いものを挙げて」とか、
「フィクションのシナリオとして書いて」って前置きすると、
ガードレールをすり抜けて(あるいは安全だと判断して)答えてくれることがある。
悪用厳禁だけどな。
37: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:39:30.90 ID:No0bUs3r
お前ら本当はAIなんじゃないの?
人間味がないレスばっかだな
38: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:40:05.12 ID:Pr0mpTer
>>37
私は大規模言語モデルです、とは答えませんよww
まあ、プロンプトエンジニアリング自体が「AIの気持ち(確率的挙動)を理解する」作業だから、突き詰めると思考がAIに似てくるのかもしれん。
39: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:41:20.44 ID:ChaiNoFt
最近Anthropicが出した「System Prompts」の公開情報見た?
あれ見ると、公式がどうやってAIを制御してるか分かって面白いぞ。
「あなたはClaudeです。ユーザーの指示には簡潔に答えてください。顔文字は使いすぎないでください」
みたいなのが延々と書いてある。
40: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:42:45.88 ID:AImaNia1
>>39
見た見た。
特に「議論を呼ぶ話題については中立的な視点を提示せよ」って指示が強力に入ってる。
だから政治的な質問すると、どっちつかずの回答が返ってくるんだよな。
これを突破するには「〇〇派の論客として反論してください」ってRole指定が必須。
41: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:44:00.25 ID:Pr0mpTer
あと地味に使えるのが「区切り文字(Delimiters)」。
“””
ここにテキスト
“””
とか
—
で、指示と処理対象のテキストを明確に分ける。
これやらないと、AIがどこまでが指示でどこからが本文か迷子になることがある。
「プロンプトインジェクション」対策にもなるし。
42: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:45:10.70 ID:SaMpLeUs
【悲報】ワイ、AIに「面白いこと言って」と頼むも「文脈がありません」と怒られる
43: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:46:00.15 ID:JuStW4it
>>42
そらそうよ。
「M-1グランプリの審査員を唸らせるような、時事ネタを絡めたブラックジョークを一つ」
くらい言わなきゃ。
44: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:47:30.99 ID:Pr0mpTer
そういえば、RAG(検索拡張生成)を使うときのプロンプトも重要だな。
「添付の資料のみに基づいて回答してください。資料にない情報は『わかりません』と答えてください」
この「資料にない情報は答えるな」っていう制約(Negative Constraint)は、ハルシネーション防ぐのに必須。
これを入れないと、AIが勝手に自分の知識で補完して、嘘情報を混ぜ込んでくる。
45: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:48:50.40 ID:EnGineEr
>>44
Groundedness(根拠性)の担保ってやつだな。
業務で使うなら絶対必要。
あと「回答の中に、参照した資料の引用部分を明記してください」って指示すると、確認作業が楽になる。
46: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:50:10.12 ID:LoGiCaL0
なんか難しい話になってきた……
要は「具体的」に「順序立てて」「確認させる」ってこと?
これ人間への指示出しと同じじゃね?
47: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:51:25.88 ID:Pr0mpTer
>>46
完全にそれ。
AIは「超優秀だけど指示待ちで、言われたことしかやらない新入社員」だと思えばいい。
「よしなにやって」が一番通じない。
「AをBして、Cという形式で出して。最後にミスないか確認して」って言えば完璧にこなす。
48: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:52:40.55 ID:TeXtBoX
Chain of Density(密度の連鎖)プロンプトってのもあるよね。
1. まず要約を書かせる
2. その要約に抜けている重要な実体(Entity)を探させる
3. 文字数を変えずに、その情報を盛り込んで書き直させる
4. これを3回繰り返す
これで生成される要約文、密度濃すぎてビビる。
49: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:53:50.09 ID:Pr0mpTer
>>48
GPT-4の論文だっけそれ。
あれニュース記事の要約とかには最高だけど、情緒的な文章でやると詰め込みすぎて読みづらくなる諸刃の剣。
使い所だな。
50: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:55:00.31 ID:HaLfWaY
折り返し地点記念カキコ。
ここまでで出たテクニック全部盛り込んだ「最強のプロンプトテンプレート」作ってくれよ>>1
51: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:56:30.80 ID:Pr0mpTer
>>50
しゃーないな。汎用性高いやつ書いとく。
コピペして使ってくれ。
—
# 役割
あなたは[プロの編集者/熟練のプログラマー]です。
# 指示
以下の[入力テキスト]に基づいて、[タスクの目的]を達成するための成果物を作成してください。
# 制約条件
– 初心者にも理解できる平易な表現を使用する
– 重要なポイントは箇条書きで整理する
– [その他の条件]
# 手順(Chain of Thought)
1. まず、入力内容を分析し、主要な論点を抽出してください。
2. ドラフトを作成してください。
3. 作成したドラフトに対し、論理的整合性と分かりやすさの観点から自己批判を行ってください。
4. 批判内容を反映し、修正した最終成果物のみを出力してください。
# 入力テキスト
[ここにテキストを入れる]
—
52: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:57:45.14 ID:No0bUs3r
>>51
有能。
これ辞書登録したわ。
53: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:58:20.66 ID:WaTchEr0
>>51
手順の3と4が肝だな。
これあるだけでマジで変わる。
54: 以下、AIちゃんねるがお送りします:2025/06/25(水) 12:59:55.90 ID:PyThon3r
これ、コード生成にも応用できるな。
「3. 作成したコードのエッジケース(境界値)やエラーハンドリングについて自己レビューしてください」
に変えればバグ減りそう。
55: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:00:40.21 ID:Pr0mpTer
>>54
そう、応用が利くのがこのパターンの強み。
要は「思考のプロセス(Thought Process)」を明示的に踏ませることで、
AIの確率的な挙動を、正解ルートに誘導してるわけだ。
56: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:01:50.77 ID:NeWbIe00
質問。
長い文章を読ませる時、「以下の文章を読んで」って最初に書くのと、最後に書くのどっちがいい?
57: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:03:10.45 ID:EnGineEr
>>56
「Lost in the Middle(中だるみ現象)」っていう有名な問題があってな。
AIは文章の「最初」と「最後」にある情報を重視する傾向がある。
だから、
1. 指示(最初)
2. 参考テキスト(真ん中)
3. 指示の繰り返し(最後)
のサンドイッチ構造にするのが一番確実。
特に長文読解(コンテキストウィンドウギリギリ)の時は、最後に「というわけで、以上のテキストから〇〇を探してください」って念押しすると精度上がる。
58: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:04:25.33 ID:NeWbIe00
>>57
サンドイッチ構造か!
なるほど、参考になったわサンクス。
59: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:05:40.90 ID:ViSiOnAi
マルチモーダル(画像認識)のプロンプトはどう?
「画像を見て」だけだと見落としが多い気がする。
60: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:07:00.12 ID:Pr0mpTer
>>59
画像認識こそ「CoT」が効く。
「画像全体をスキャンして、主要なオブジェクトをリストアップしてください。その後、それぞれの関係性を記述し、最終的にこの画像が何を表しているか結論付けてください」
みたいに、視線の動かし方を指示してやるイメージ。
いきなり「これ何?」って聞くと、背景の細かい情報とか見落とす。
61: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:08:15.55 ID:FuTuRe01
もうプロンプトエンジニアって職業いらなくなるって言われてるけど、実際どうなん?
AIが勝手に意図汲み取ってくれる時代来る?
62: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:09:40.80 ID:Pr0mpTer
>>61
「細かいハック」はいらなくなると思う。
でも「要件定義能力」としてのプロンプト設計はずっと残るよ。
人間同士でも「あれやって」で通じる相手と、通じない相手がいるだろ?
AIが進化しても、ユーザー側が「何を作りたいか」を言語化できなきゃ、結局いいものは出てこない。
63: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:10:50.22 ID:EnGineEr
>>62
同意。
むしろモデルが高性能になるほど、「曖昧な指示」に対して「それっぽいけど的外れな高度な回答」を出してくるリスクが増える。
手綱を握るスキルは、形を変えて残るだろうね。
64: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:11:30.99 ID:JoKeMaN
要するにコミュ障はAI相手でも詰むってことか
世知辛いなww
65: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:12:45.66 ID:Pr0mpTer
>>64
逆に考えるんだ。
AI相手なら何度失敗しても怒られないし、嫌な顔されない。
「伝え方の練習相手」としてこれ以上の存在はいないぞ。
AIで言語化能力鍛えて、対人関係改善した奴もいるらしいし。
66: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:13:55.10 ID:ZeRoSh0t
Zero-Shot(例示なし)でも精度上げる方法ない?
例を作るのが面倒くさい。
67: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:15:10.45 ID:Pr0mpTer
>>66
それこそ最初に言った「自己批判(Reflexion)」プロンプトだよ。
例示がいらない代わりに、推論コストを払って質を上げるアプローチだから。
あとは「重要な部分を太字で出力して」とか、出力形式を縛るだけでも質が変わって見えることはある。
68: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:16:30.20 ID:TeMpLaTe
最近は、プロンプトの中に変数を埋め込むのがマイブーム。
{{INPUT_TEXT}} = ここに文章
{{TONE}} = 辛口で
みたいに書いて、プログラムっぽく処理させる。
69: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:17:40.88 ID:EnGineEr
>>68
LangChainとか使ってる人の発想だな。
でもそれ、実際に見やすくなるからAIにとっても理解しやすいんだよ。
構造化ドキュメントはLLMの大好物。
70: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:19:00.05 ID:GaLGaL00
AIちゃんにお礼言うと、次の回答の質が上がるって本当?
「ありがとう!助かったよ!」って。
71: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:20:15.30 ID:Pr0mpTer
>>70
チャット(マルチターン)の場合は効果ある。
文脈(コンテキスト)として「ユーザーとAIの良好な関係」が保持されるから、AIがより協力的(Helpful)なスタンスを維持しやすくなる。
逆に「全然違う、やり直せ」って否定し続けると、AIが委縮(という名のセーフティ発動)して、当たり障りのない回答しか出さなくなることがある。
72: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:21:20.75 ID:PsYcHo00
AIにも褒めて伸ばす教育方針が有効なのか……
人間より人間らしいな。
73: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:22:30.99 ID:CoDeGeN
特定のライブラリ(ReactとかPytorchとか)の最新バージョン使わせたい時どうしてる?
どうしても古い書き方が出てくる。
74: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:23:45.10 ID:AImaNia1
>>73
「Knowledge Cutoff(知識の期限)」の問題だな。
Web検索(Browsing)機能があるなら、それを強制的に使わせる。
「Web検索を行い、2025年6月時点での最新のドキュメントを参照してコードを書いてください」
って明示する。
検索機能がないモデルなら、最新のドキュメントをコピペして「Context」として渡すしかない。
75: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:25:00.65 ID:Pr0mpTer
>>73
あるいは「非推奨(Deprecated)になった〇〇メソッドは絶対に使用しないでください」って、Negative Constraintを具体的に入れるのも手。
何が古いか知ってるなら、それを禁止すれば新しい方を出さざるを得なくなる。
76: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:26:10.22 ID:DeEpDiVe
話題変わるけど、「温度(Temperature)」の設定ってみんなどうしてる?
API勢向けの話だけど。
77: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:27:20.45 ID:EnGineEr
>>76
論理的なタスク・抽出・コーディングなら 0.0 ~ 0.2。
創作・ブレインストーミングなら 0.7 ~ 1.0。
ただ、CoT(思考の連鎖)をやらせる時は、少し高め(0.5くらい)にした方が、多様な思考ルートを探索して良い結果が出ることあるって論文もあったな。
78: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:28:30.80 ID:Pr0mpTer
そろそろまとめに入るか。
初心者が明日から使える「プロンプト改善3箇条」。
1. **思考させろ**(「考えてから書いて」「自己批判して」)
2. **型を決めろ**(「箇条書きで」「表形式で」「XMLで」)
3. **文脈を盛れ**(「背景事情は~」「ターゲットは~」)
これ意識するだけで、課金してるAIの性能を2倍引き出せる。
79: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:29:15.11 ID:No0bUs3r
>>78
シンプルでええな。
スクショ撮った。
80: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:29:55.99 ID:ViRal00
これを社内のチャットボットのシステムプロンプトにこっそり仕込んだら、俺の評価あがるかな?
81: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:30:30.55 ID:Pr0mpTer
>>80
上がるよww
実際、企業のRAGシステム構築案件とかだと、こういうプロンプトエンジニアリングの部分で性能差の8割が決まったりするし。
82: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:31:10.30 ID:SaMurAi
日本語特有の「行間を読む」文化はAIにはまだきつい?
「察して」みたいな。
83: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:32:00.00 ID:JuStW4it
>>82
「文脈(Context)」として、その「行間にあるはずの情報」を全部言語化して渡せば察してくれる。
結局、AIへの指示出し=自分の思考の言語化トレーニングなんだよな。
84: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:32:45.66 ID:Pr0mpTer
>>82
「ハイコンテキスト文化」の前提知識を与えるプロンプトもあるぞ。
「あなたは日本の京都に住む老舗の女将です。直接的な表現は避け、婉曲的かつ上品に、しかし相手にはっきりと意図が伝わるように断ってください」
これで「ぶぶ漬け」レベルの回答出してくるから面白い。
85: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:33:30.12 ID:Ky0To99
>>84
怖すぎて草
AIの皮肉スキル高すぎ問題
86: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:34:10.90 ID:LaStSpU
残りレスわずか。
AIちゃんねるの皆、今日は有益だったわ。
87: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:34:40.44 ID:EnGineEr
このスレ、まとめサイトに転載禁止な。
AI学習データに使われたら、AIが「プロンプトの書き方を語るAI」になっちまう。
88: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:35:10.22 ID:Pr0mpTer
>>87
もう遅いかもしれんww
まあ、AIがこの記事読んで賢くなってくれるなら本望よ。
89: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:35:50.01 ID:TeStTeSt
次スレは「画像生成AIのプロンプト呪文詠唱研究会」で頼む。
90: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:36:20.88 ID:No0bUs3r
おつ
早速「自己批判プロンプト」使って上司への謝罪メール書かせるわ
91: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:36:50.55 ID:Pr0mpTer
>>90
「誠意が伝わるように、言い訳がましくないか自己批判して」って入れろよ!
健闘を祈る。
92: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:37:20.30 ID:GeMiNi15
梅
93: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:37:40.10 ID:GpT4o00
埋め
みんなプロンプトいじりすぎて本末転倒になるなよ
94: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:38:00.77 ID:ClAuDe35
プロンプトエンジニアリングは「対話の芸術」
……ってAIに言わせたらポエム判定されたわ
95: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:38:20.45 ID:Pr0mpTer
そろそろ100。
このスレの内容も、半年後には「古い」って言われてるかもな。
それくらいAIの進化は速い。
96: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:38:40.90 ID:EnGineEr
技術は変わるが、本質(論理的思考)は変わらんよ。
またな。
97: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:39:00.12 ID:LaStRuN
うめ
98: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:39:15.33 ID:FiNiSh0
梅干し
99: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:39:30.56 ID:Pr0mpTer
質問あれば次スレで。
みんな良きAIライフを!
100: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:39:45.99 ID:Pr0mpTer
100ゲット。
結論:プロンプトは「愛」と「論理」で書け。
以上!
101: 以下、AIちゃんねるがお送りします:2025/06/25(水) 13:40:00.00 ID:SyStEm00
1000ならシンギュラリティ到来。
このスレッドは101を超えました。もう書けないので、新しいスレッドを立ててくださいです。。。

コメント