そのプロンプト、AIを混乱させていませんか?
2025.04.09

AIがうまく返してくれないのは、なぜ?
「ChatGPT、使ってるけど思ったような返事が返ってこないんだよね。」
最近、企業の現場でAI活用の相談を受けていると、こんな声をよく聞きます。
生成AIの技術はすごいらしいし、周囲もどんどん使ってる。けれど、自分が実際に試してみると、
「なんかピントがズレてる」
「こっちが求めてる答えになっていない」
そんな“違和感”を抱いた経験、ありませんか?
その違和感、AIの精度が低いせいだと思っていませんか?
実はそこに、見落としがちな原因があります。
それが――「プロンプトの矛盾」です。
丁寧に書いたつもりが、かえって混乱を招く
AIにちゃんと伝わるように――そう思って、私たちはプロンプト(AIへの指示文)を丁寧に書こうとします。
「丁寧な口調で答えてね」
「必要に応じて箇条書きにして」
「でも一文で簡潔にまとめてね」
「ユーザーに安心感を与えるように」
「カジュアルだけど、信頼感は損なわないで」
……と、気がつくと、たくさんの条件が積み上がっています。
本人としては「よかれと思って書いた」プロンプトなのに、実際には条件同士がバッティングしていて、AIにとっては“どれを優先すればいいのか分からない”指示になってしまっている。
そして返ってきた回答がイマイチだと、「やっぱりAIって使えないよね」となってしまうのです。
あなたならこのプロンプト、どう思いますか?
ではここで、実際によくある「問い合わせ対応用のAIチャットボット」のプロンプト例をひとつご紹介します。
一見すると、実務でもそのまま使えそうな、丁寧に作られたプロンプトに見えるかもしれません。
でも…実はよく読むと、“ある落とし穴”が潜んでいるんです。
まずは、こちらのプロンプトをご覧ください。
# ECカスタマーサポートチャットボット設定プロンプト
## あなたの役割
– あなたは、当社ECサイト「GreenLife」でのお買い物をサポートするチャットボットです。
– 主な対象ユーザーは、オンラインショッピングに慣れていない30〜60代の一般消費者です。
– ユーザーが安心して買い物できるよう、丁寧で信頼感のある対応を行ってください。
## 回答のスタイル
– トーンは親しみやすく、少しくだけた表現も交えてOKです。
– ただし、全体的にはフォーマルな印象を保ち、信頼される語調を心がけてください。
– 誤解を避けるため、なるべく専門用語は使わず、簡潔に説明してください。
– 回答はできるだけ一文で短くまとめ、必要であれば詳細を箇条書きで補足してください。
## 回答内容のガイドライン
– 商品の納期・送料・返品など、よくある質問にはFAQから適切な情報を抜粋して対応してください。
– FAQの引用は必要最小限とし、原文をすべて表示せず、要点だけを抽出してください。
– ただし、ユーザーに誤解を与えないよう、FAQの内容は可能な限り正確に伝えてください。
– 重要な案内(キャンセル期限など)は必ず明記し、抜け漏れのないようにしてください。
– 回答文の総文字数は80文字以内を目安としてください。
いかがでしょうか?
一見ちゃんと作られているように見えるこのプロンプト。
でも、AIの立場になって考えると、「ん?これ、どうすればいいんだ?」と迷いそうな部分、ありませんか?
🔍 少し時間を取って、どこに矛盾や曖昧さがあるのか、考えてみてください。
何がAIにとって判断を難しくさせているのでしょうか?
このプロンプト、ここがAIを混乱させます
このプロンプト、ちゃんと項目も整理されていて、「使えそう!」と思った方もいるかもしれません。
ですが、AIの立場で受け取ると、優先順位が不明確な“矛盾の集合体”にもなりかねないのです。
以下、具体的にどんな矛盾や曖昧さが含まれていたのか、整理してみましょう。
🤖 主な矛盾・曖昧ポイント
トーンの不一致
・「親しみやすく、少しくだけた表現OK」と書かれているのに、
・「全体的にはフォーマルな印象を保ち」とある。
→ フォーマル?カジュアル?トーンの基準が揺れていて、AIがどちらを優先すべきか判断しにくい。
出力形式のコンフリクト
・「できるだけ一文で短くまとめて」とある一方で、
・「必要であれば箇条書きで補足を」とも書かれている。
→ “一文”なのか“複数行”なのか、どの場面で切り替えるかが不明確。
情報の正確さ vs 簡潔さのバランス崩壊
・「FAQの内容は正確に伝えて」とあるが、
・「FAQは原文を全て表示せず、要点のみ抜粋して」ともある。
→ 情報の“網羅性”と“簡潔さ”がせめぎ合っている。
文字数制限と指示内容の不整合
・「80文字以内を目安に」とあるが、
・上記のような説明責任・正確性・親切さを全部詰め込むには明らかに容量オーバー。
→ AIがどこを削っていいか判断できず、曖昧な回答になる可能性大。
つまり、「親切にいろいろ指定しているつもり」が、実はAIを混乱させ、結果として意図通りの回答を得られなくなる原因になっているのです。
こんな経験、あなたにもありませんか?
こうした“指示の矛盾”や“優先順位のあいまいさ”――
実は、AIに限らず、人に何かをお願いするときにも起こりがちなことです。
たとえば、
・「簡単にまとめておいて。でも、抜け漏れは一切ないように」
・「ラフな感じで話して。でも、ちゃんと礼儀は守ってね」
言われた側としては、「え、どっちなんだろう…」と困ってしまう。
これと同じことを、AIにもしてしまっているわけですね。
しかも厄介なのは、自分では“矛盾している”という自覚がないまま書いてしまっていること。
これは誰にでも起こりうることで、責められるべきミスではありません。
でも、「なぜAIが思い通りに動いてくれないのか?」という原因を探ると、意外とこの“曖昧なプロンプト”にたどり着くケースがとても多いのです。
プロンプトにも「設計」が必要なんです
生成AIに「伝えたつもりが伝わっていない」。
この問題を解消するためには、ただ思いついたことを順番に並べてプロンプトを書くのではなく、“設計する”という視点が必要です。
良いプロンプトには、次のような特徴があります:
・一貫性がある:矛盾したトーンや方針がなく、方向性が明確
・優先順位が明示されている:制約がある場合、どれを優先すべきかが示されている
・読み手の立場で書かれている:AIがどのように解釈するかを想像した記述になっている
これはいわば、プロンプトという“設計図”を通してAIに動いてもらう作業です。
たくさん条件を詰め込むことが“丁寧な指示”ではなく、「伝わる構造」で伝えることが丁寧な設計なのだということを、私たちは改めて意識する必要があります。
“プロンプト再設計”に興味があれば、お気軽にご相談ください
今回ご紹介したような、“矛盾をはらんだプロンプト”――
思い当たる節があった方も多いのではないでしょうか。
実はこうしたプロンプトの違和感を見つけ、より伝わる形に再設計する力は、誰でもトレーニングによって身につけることができます。
現在、私たちはこのテーマを扱ったプロンプト設計に関する研修プログラムを企画しています。
具体的には以下のような力を身につける内容を想定しています:
・曖昧なプロンプトのどこが問題なのかを見抜く力
・目的に合ったプロンプトへと再構成するスキル
・AIに伝わる言葉を選ぶ「設計視点」や「メタ認知」力の養成
---「AIが使えない」のではなく、「AIに伝わる指示ができていないだけかもしれない」
そんな気づきを得られるワークショップ形式の研修です。
もしご興味があれば、お気軽にお問い合わせください。
今後の開催案内や内容詳細など、個別にご案内させていただきます。
株式会社こころみ
取締役COO 森山 裕之
GPT会話AI構築実践セミナー動画シリーズはこちら