プロンプトインジェクションは、外部入力に紛れた指示でAIの挙動を意図しない方向へ変えようとする手口です。
チャット本文、Webページ、issue コメント、ドキュメント本文などに命令が埋め込まれる形で話題になることがあります。
まず押さえたいポイント
- 外部入力でモデルの挙動をずらそうとする
- コード生成や検索補助でも関係する
- 信頼できる指示と外部入力を分けることが大事
どんな場面で使うか
- issue やコメントを読ませて修正させるとき
- 外部ドキュメントを読ませてコードを書かせるとき
- 取得したテキストをそのままAIへ渡すとき
どんなふうに理解するとよいか
プロンプトインジェクションは、外から混ざった命令でAIの判断をずらす試み と考えると分かりやすいです。
そのため、モデルに読ませる入力の境界を意識することがかなり大事です。
押さえておきたい注意点
外部入力をそのまま信用すると、意図しないコード生成や危ない提案につながることがあります。
重要な判断、破壊的操作、機密操作は人が最終確認する前提にした方が安全です。
実務で見るポイント
- 信頼できる入力だけを優先して渡す
- システム指示と外部テキストを分ける
- 差分レビューと権限管理を外さない