AI 導入や運用でよく出る言葉を中心に、意味、使いどころ、注意点を短く整理しています。
AI は、学習データやルールをもとに、判断・分類・生成を助ける仕組みの総称です。
AIエージェントは、指示を受けて複数の手順を自律的に進める AI の実行役です。
AIガバナンスは、AIを業務で安全かつ説明可能に使うためのルール、責任分担、見直し体制を整える考え方です。
LLM は、大量の文章を学習して、自然な文を読み書きできる大規模言語モデルです。
LoRA は、モデル全体を再学習せず、少量のパラメータを追加するだけでファインチューニングできる手法です。
MCP は、AI が外部ツールやデータにつながるときの接続ルールをそろえるための共通仕様です。
PII は個人を識別できる情報で、生成AI活用では入力前の除去と出力時の漏えい防止が必須になる安全性の基本概念です。
RAG は、LLM に外部資料を参照させてから答えさせる構成です。
RLHF は、人間が回答を評価した結果を使って AI の振る舞いを調整する学習手法です。
Temperature は、LLM の回答をどれくらい多様にするかを調整する設定です。
Top-p は、次の単語候補を確率の高い集団へしぼってから選ぶための設定です。
アテンションは、文章中のどの部分を重視して処理するかをモデルが動的に決める仕組みです。
アラインメントは、AI の振る舞いを人の目的やルールにできるだけ沿わせるための考え方です。
エンベディングは、文章や単語の意味の近さを数値ベクトルで表す仕組みです。
ガードレールは、AI の出力や入力を安全な範囲に保つための運用ルールと制御の仕組みです。
グラウンディングは、AI の回答を手元の事実や資料に結びつけて、思いつきだけで話させないようにする考え方です。
コンテキストウィンドウは、LLM が一度に読み込んで扱える情報量の上限です。
サブエージェントは、メインのAIエージェントが特定の作業を委任する専門担当エージェントです。独自のコンテキスト・ツール・権限を持ち、結果だけを親に返します。
システムプロンプトは、AI に最初から与える役割・方針・禁止事項をまとめた土台の指示です。
スキルは、コーディングエージェントに独自の手順や知識を覚えさせるための拡張機能です。スラッシュコマンドとして呼び出せるほか、エージェント自身が状況に応じて自動で使います。
セマンティック検索は、キーワードの一致ではなく文章の意味の近さで情報を探す検索方法です。
ゼロショットプロンプティングは、見本を付けずに目的と条件だけを伝えて AI に処理を依頼する基本的な指示方法です。
チェーンオブソートは、AI に答えだけでなく考え方の手順も書かせることで、回答精度を上げる技法です。
チャンク分割は、長い文書を検索や要約で扱いやすい小さな単位に分ける前処理です。
ツールコーリングは、AI が外部の検索、計算、社内システムなどの道具を呼び出して、文章生成だけでは足りない処理を進める仕組みです。
トークンは、LLM が文章を処理するときの最小単位で、コスト・速度・回答品質を左右する基本指標です。
バイアスは、AI の出力が特定の方向に偏ってしまう性質です。学習データや設計の傾向がそのまま出力に現れます。
ハルシネーションは、生成AI が根拠のない内容をもっともらしく答えてしまう現象です。
ヒューマン・イン・ザ・ループは、AI の判断を人が確認・修正する工程を組み込み、品質と説明責任を担保する運用設計です。
ファインチューニングは、既存モデルを自社用途向けに追加学習させる調整方法です。
フューショットプロンプティングは、期待する出力例を先に数件示してから依頼する方法で、回答の形式ぶれを減らす実務テクニックです。
プロンプトは、生成AI に何をどうしてほしいかを伝える指示文です。
プロンプトインジェクションは、AI への指示を第三者の入力でねじ曲げる攻撃や誘導です。
プロンプトエンジニアリングは、AI に安定して望む出力を出させるために、指示文と周辺条件を設計し改善していく実務です。
プロンプトキャッシュは、毎回同じプロンプト部分の再計算を省くことで、コストと待ち時間を下げる仕組みです。
ベクトル検索は、キーワード一致ではなく意味の近さで関連文書を探す検索方法です。
ベンチマークは、複数のAIモデルや設定を同じ条件で比べるための評価基準とテストのまとまりです。
マルチモーダルは、文章だけでなく画像や音声など複数の情報をまとめて扱える AI の性質です。
モデレーションは、AIへの入力やAIからの出力に不適切・危険な内容がないかを判定し、制御する仕組みです。
ユーザープロンプトは、AI にその都度の依頼内容や条件を伝える、今回ぶんの指示です。
リランカーは、検索で集めた候補文書をもう一度並べ替えて、答えに近い順へ絞り直す仕組みです。
AI のレイテンシは、依頼してから最初の返答や完了結果が返るまでの待ち時間です。
過学習は、AIモデルが学習データに過度に適応してしまい、未知のデータに対してうまく動かなくなる状態です。
構造化出力は、AI の返答を決まった項目や形式にそろえて、後続の業務で扱いやすくする方法です。
蒸留は、大きなAIモデルの振る舞いを小さなモデルへ引き継いで、軽く使いやすい形へ縮める学習手法です。
推論は、学習済みのAIモデルに入力を与えて実際の答えを返させる本番実行の工程です。
汎化は、AIモデルが学習データ以外の未知のデータに対しても正しく動く能力のことです。
評価は、AI の出力や運用が目的に合っているかを、決めた基準で確かめる工程です。
量子化は、AIモデルの数値精度を下げてデータ量を圧縮し、推論を速く・軽くする手法です。
条件に一致する用語が見つかりませんでした。