AI用語集
AIニュースを読み解くための用語集。主要な技術用語をわかりやすく解説します。
80件の用語
あ
RLAIF
RLAIF (Reinforcement Learning from AI Feedback)RLAIFとは、人手の代わりにAIの評価を利用して好みデータを作り、強化学習でモデルを調整する手法です。理解すると調整がしやすくなります。
RLHF
RLHF (Reinforcement Learning from Human Feedback)RLHFとは、人の好みの評価を使って報酬モデルを作り、強化学習でモデルの振る舞いを整える手法です。理解すると調整がしやすくなります。
アラインメント
Alignmentアラインメントとは、モデルの出力を人の意図や安全基準に合うよう調整し、望ましくない振る舞いを減らす取り組みです。安全な運用の基礎になります。
関連記事 1件
埋め込み
Embedding埋め込みとは、文章や画像を意味が近いほど近くなる数値ベクトルに変換し、検索や分類に使う表現です。理解すると調整がしやすくなります。
関連記事 1件
エージェント
Agentエージェントとは、目標達成のために計画し、ツールを使い、結果を見直しながらタスクを進めるAIの実行形態です。理解すると調整がしやすくなります。
関連記事 76件
エージェントメモリ
Agent Memoryエージェントメモリとは、会話や作業の重要情報を保存し、後のタスクで再利用できるようにする仕組みです。体験設計で重要になります。
関連記事 1件
音声合成
Text-to-Speech (TTS)音声合成とは、テキストから自然な音声を生成する技術で、読み上げや対話型アシスタントに使われます。体験設計で重要になります。
音声認識
Automatic Speech Recognition (ASR)音声認識とは、音声データを文字に変換する技術で、会議の文字起こしや字幕生成に使われます。体験設計で重要になります。
温度
Temperature温度とは、次トークン選択の確率分布のばらつきを調整する設定で、創造性と安定性のバランスを変えます。理解すると調整がしやすくなります。
か
拡散モデル
Diffusion Model拡散モデルとは、ノイズから段階的に画像を復元する過程を学習し、高品質な画像生成を実現する生成モデルです。仕組みを知ると使い分けやすいです。
関数呼び出し
Function Calling関数呼び出しとは、モデルが必要な操作を関数名と引数で返し、外部処理を安全に実行できるようにする仕組みです。体験設計で重要になります。
関連記事 5件
ガードレール
Guardrailsガードレールとは、禁止内容の検知や出力制御を行い、危険・不適切な回答を防ぐための安全対策の総称です。安全な運用の基礎になります。
関連記事 3件
画像生成
Image Generation画像生成とは、文章の指示などから新しい画像を作り出す技術で、デザイン案作成や表現の試作に使われます。体験設計で重要になります。
関連記事 10件
画像理解
Image Understanding画像理解とは、画像の内容を解析して物体や文字、関係性を把握し、説明や分類に活かすAIの能力です。体験設計で重要になります。
強化学習
Reinforcement Learning (RL)強化学習とは、行動の結果として得られる報酬を最大化するように方策を学ぶ学習手法です。理解すると調整がしやすくなります。
拒否応答
Refusal拒否応答とは、安全上または方針上対応できない依頼に対して、理由を添えて断るモデルの振る舞いです。安全な運用の基礎になります。
関連記事 1件
グラウンディング
Groundingグラウンディングとは、回答を特定の根拠情報に結び付け、推測ではなく参照に基づいて答える状態を作る考え方です。理解すると調整がしやすくなります。
関連記事 4件
継続事前学習
Continued Pretraining継続事前学習とは、事前学習済みモデルに追加データで再び事前学習を行い、知識や語彙を拡張する方法です。理解すると調整がしやすくなります。
KVキャッシュ
KV CacheKVキャッシュとは、生成中の注意計算の中間結果を保存し、次トークン生成を高速化する推論最適化です。体験設計で重要になります。
検索拡張生成
Retrieval-Augmented Generation (RAG)検索拡張生成とは、外部検索で根拠文を取り出し、その内容を使って回答を生成することで正確さを高める手法です。理解すると調整がしやすくなります。
憲法AI
Constitutional AI憲法AIとは、事前に定めた原則集に基づいて出力を自己改善させ、安全で一貫した振る舞いを目指す学習手法です。安全な運用の基礎になります。
構造化出力
Structured Output構造化出力とは、決まった構造で回答させ、後段の処理で機械的に扱いやすくする出力方式です。体験設計で重要になります。
関連記事 3件
混合専門家
Mixture of Experts (MoE)混合専門家とは、複数の小さな専門モデルを用意し、入力に応じて一部だけを選んで計算するモデル設計です。仕組みを知ると使い分けやすいです。
関連記事 2件
コンテキスト圧縮
Context Compressionコンテキスト圧縮とは、長い入力を要点や必要情報に縮めて、トークンを節約しつつ精度を保つ工夫です。理解すると調整がしやすくなります。
コンテキストウィンドウ
Context Windowコンテキストウィンドウとは、モデルが一度に参照できる入力と出力の合計文脈範囲で、トークン数で表されます。理解すると調整がしやすくなります。
コンテキスト長
Context Lengthコンテキスト長とは、コンテキストウィンドウで扱えるトークン上限を指し、長文処理の能力と直結します。理解すると調整がしやすくなります。
関連記事 4件
さ
差分プライバシー
Differential Privacy差分プライバシーとは、個々のデータの影響が推測されにくいようノイズを加え、学習や集計のプライバシーを守る考え方です。安全な運用の基礎になります。
視覚言語モデル
Vision-Language Model視覚言語モデルとは、画像と文章を一緒に理解し、画像内容の説明や質問回答を行えるモデルです。仕組みを知ると使い分けやすいです。
思考の連鎖
Chain-of-Thought (CoT)思考の連鎖とは、結論だけでなく途中の推論手順も文章化して解かせ、複雑な問題の正答率を上げる技法です。理解すると調整がしやすくなります。
関連記事 1件
指示チューニング
Instruction Tuning指示チューニングとは、「指示→望ましい回答」の例で学習し、モデルを指示に従いやすくする追加学習です。理解すると調整がしやすくなります。
システムプロンプト
System Promptシステムプロンプトとは、会話全体の方針や守るべきルールを定める上位の指示で、ユーザー入力より優先されます。理解すると調整がしやすくなります。
関連記事 1件
出典引用
Source Attribution (Citations)出典引用とは、回答の根拠となった文書や箇所を明示し、読者が確認できるようにする仕組みです。体験設計で重要になります。
出力トークン
Output Token出力トークンとは、モデルが生成した回答文が分割されたトークン数で、料金や生成上限の計算に使われます。料金見積もりの基本になります。
関連記事 2件
少数例プロンプティング
Few-shot Prompting少数例プロンプティングとは、入力と望ましい出力の例を少し入れて、モデルに形式や判断基準を学習させる方法です。理解すると調整がしやすくなります。
自己回帰モデル
Autoregressive Model自己回帰モデルとは、直前までの文脈から次のトークンを順番に予測し、文章を1つずつ生成するモデルです。仕組みを知ると使い分けやすいです。
自己整合性
Self-Consistency自己整合性とは、同じ問いを複数回解かせて多数決などで答えをまとめ、偶然の誤りを減らす推論手法です。理解すると調整がしやすくなります。
事前学習
Pretraining事前学習とは、大量の未整理テキストから言語の一般的な知識を身につけるための大規模な学習段階です。理解すると調整がしやすくなります。
関連記事 1件
自動評価
Automated Evaluation自動評価とは、ルールや別モデルを使って出力品質を機械的に測り、素早く改善サイクルを回す評価方法です。理解すると調整がしやすくなります。
従量課金
Pay-as-you-go Pricing従量課金とは、利用量に応じて費用が増減する料金方式で、AIでは主にトークンや処理量が基準になります。料金見積もりの基本になります。
関連記事 6件
ストップシーケンス
Stop Sequenceストップシーケンスとは、特定の文字列が出た時点で生成を止めるための終了条件です。理解すると調整がしやすくなります。
ストリーミング生成
Streaming Generationストリーミング生成とは、回答を一度に返さず、生成されたトークンから順に逐次表示する出力方式です。体験設計で重要になります。
セーフティ分類器
Safety Classifierセーフティ分類器とは、入力や出力が安全基準に反していないかを判定する検知モデルで、ガードレールの中核になります。安全な運用の基礎になります。
ゼロショットプロンプティング
Zero-shot Promptingゼロショットプロンプティングとは、例を示さず指示だけでタスクを解かせる方法で、手早く試すときに使われます。理解すると調整がしやすくなります。
た
大規模言語モデル
Large Language Model (LLM)大規模言語モデルとは、大量の文章から言葉のつながりを学び、対話や要約などを生成するAIモデルです。仕組みを知ると使い分けやすいです。
関連記事 3件
チャンク分割
Chunkingチャンク分割とは、長い文書を適切な長さの塊に分け、検索やRAGで扱いやすくする前処理です。理解すると調整がしやすくなります。
注意機構
Attention Mechanism注意機構とは、入力のどの部分を重視するかを重みで表し、必要な情報を集めて出力に反映する仕組みです。理解すると調整がしやすくなります。
ツール利用
Tool Useツール利用とは、モデルが検索や計算など外部ツールを呼び出し、結果を取り込んで回答精度を高める仕組みです。実装設計でよく登場します。
関連記事 2件
転移学習
Transfer Learning転移学習とは、あるデータで学んだ知識を別のタスクに活かし、少ないデータでも性能を出す学習の考え方です。理解すると調整がしやすくなります。
DPO
DPO (Direct Preference Optimization)DPOとは、好みの比較データを直接目的関数に取り込み、強化学習を使わずに方策を最適化する学習手法です。理解すると調整がしやすくなります。
データ漏えい
Data Leakageデータ漏えいとは、機密情報や個人情報が意図せず外部へ出たり、学習・出力から復元されてしまうリスクです。安全な運用の基礎になります。
トークン
Tokenトークンとは、文章をモデルが扱える細かな単位に分けたもので、料金や入力長の見積もりにも使われます。理解すると調整がしやすくなります。
関連記事 23件
トークン課金
Token-Based Pricingトークン課金とは、入力と出力のトークン数に応じて料金が決まる従量課金方式です。料金見積もりの基本になります。入力と出力を意識すると節約につながります。
関連記事 1件
トップPサンプリング
Top-p Sampling (Nucleus Sampling)トップPサンプリングとは、確率の高い候補から合計確率がPに達するまで選び、その範囲で次トークンを抽選する方法です。理解すると調整がしやすくなります。
トランスフォーマー
Transformerトランスフォーマーとは、文章中の重要な関係を注意機構で捉え、並列計算で学習できるニューラルネットです。仕組みを知ると使い分けやすいです。
な
は
ハルシネーション
Hallucinationハルシネーションとは、モデルが事実に反する内容をもっともらしく生成してしまう現象です。理解すると調整がしやすくなります。
人手評価
Human Evaluation人手評価とは、実際の人が出力を読み、正確さや有用性などの観点で品質を判定する評価方法です。理解すると調整がしやすくなります。
ファインチューニング
Fine-tuningファインチューニングとは、事前学習済みモデルを特定用途のデータで追加学習し、振る舞いを最適化する手法です。理解すると調整がしやすくなります。
関連記事 1件
プランニング
Planningプランニングとは、目標を達成するための手順を分解し、実行順序や必要情報を整理するエージェントの工程です。理解すると調整がしやすくなります。
プロンプト
Promptプロンプトとは、モデルに目的や条件を伝える入力文で、出力品質を左右する操作レバーです。理解すると調整がしやすくなります。
関連記事 56件
プロンプトインジェクション
Prompt Injectionプロンプトインジェクションとは、悪意ある指示でシステムのルールを上書きし、意図しない情報漏えいや操作を狙う攻撃です。安全な運用の基礎になります。
関連記事 1件
プロンプトテンプレート
Prompt Templateプロンプトテンプレートとは、指示文の型を部品化し、変数を差し替えて安定した入出力を作る仕組みです。実装設計でよく登場します。
関連記事 1件
ベクトル検索
Vector Searchベクトル検索とは、埋め込みベクトルの距離を使って意味の近い文書やデータを探す検索方式です。理解すると調整がしやすくなります。
ベクトルデータベース
Vector Databaseベクトルデータベースとは、埋め込みベクトルを保存し、近いベクトルを高速に検索できるよう最適化したデータ基盤です。実装設計でよく登場します。
ベンチマーク
Benchmarkベンチマークとは、複数のモデルを同条件で比較するための標準的な問題集や評価手順のことです。理解すると調整がしやすくなります。
関連記事 7件
報酬モデル
Reward Model報酬モデルとは、回答の良さを数値で評価するモデルで、RLHFなどで学習の指標として使われます。理解すると調整がしやすくなります。
ま
や
ら
リトリーバー
Retrieverリトリーバーとは、質問に関連する文書やチャンクを検索で取り出し、LLMへ渡す役割を担うコンポーネントです。実装設計でよく登場します。
リフレクション
Reflectionリフレクションとは、生成結果を自己点検し、誤りや不足を見つけて修正するための見直し工程です。理解すると調整がしやすくなります。
料金ティア
Pricing Tier料金ティアとは、利用枠や単価、機能が段階別に定められた料金区分で、用途に合うプラン選びに使われます。料金見積もりの基本になります。
量子化
Quantization量子化とは、モデルの重み表現を低ビット化して計算量とメモリを減らし、推論を高速・低コストにする手法です。理解すると調整がしやすくなります。
リランキング
Re-rankingリランキングとは、検索で集めた候補文書を別モデルや評価関数で並べ替え、より関連度の高い順に絞り込む工程です。理解すると調整がしやすくなります。
ルーブリック評価
Rubric Evaluationルーブリック評価とは、評価観点と採点基準を表にして、出力を一貫したルールで評価する方法です。理解すると調整がしやすくなります。
レイテンシ
Latencyレイテンシとは、リクエストしてから回答が返るまでの遅延時間で、体感速度と運用コストに直結します。体験設計で重要になります。
関連記事 4件
レート制限
Rate Limitレート制限とは、一定時間に送れるリクエスト数やトークン量の上限で、安定運用と公平性のために設けられます。料金見積もりの基本になります。
関連記事 1件
レッドチーミング
Red Teamingレッドチーミングとは、悪用や失敗を想定した攻撃的なテストで、モデルやシステムの弱点を事前に洗い出す活動です。安全な運用の基礎になります。
LoRA
LoRA (Low-Rank Adaptation)LoRAとは、重み全体を更新せず小さな追加行列だけを学習し、少ない計算でモデルを適応させる手法です。理解すると調整がしやすくなります。