用語集– AIに関する用語集です –
-
コンサルタント
-
アラインメント問題
-
AIDMA(アイドマ)の法則
-
PREP法
-
AI Wrapper
-
文章表現と他の表現形式の違い
-
Mistral AI
-
アノテーション
-
スモールローンチ(Small Launch)
-
スモールローンチ戦略
-
AI時代のSEO最適化:最新アルゴリズムとAI対策で勝ち抜く方法
-
Q関数(Q-function)
-
コンフォートゾーン(Comfort Zone)
-
2024年に向けたSEOアルゴリズム最適化の最新トレンドを徹底解説!
-
CoT (Chain-of-Thought) 推論
-
最新SEOアルゴリズムの完全ガイド:最適化の鍵を握る戦略
-
SRE(Site Reliability Engineering)
-
オートエンコーダー(Autoencoder)
-
基盤モデル
-
ニューロシンボリックAI(Neuro-Symbolic AI)
-
ロングコンテキスト
-
転移学習
-
Non-Autoregressive Transformer(非自己回帰型トランスフォーマー)
-
GPTモデルの出力トークンの生成を適切なタイミングで停止するメカニズム
-
停止トークン
-
Masked Self-Attention Mechanism(マスク付き自己注意機構)
-
アテンション重み(Attention Weights)
-
-
GPT(Generative Pre-trained Transformer)
-
ドロップアウト(Dropout)
-
全結合型ニューラルネットワーク
-
スパースベクトル(Sparse Vector)
-
ReLU(Rectified Linear Unit)
-
シグモイド関数
-
活性化関数(Activation Function)
-
スパースベクトル(Sparse Vector)
-
エンコーダブロック
-
残差接続
-
Transformerエンコーダ・デコーダの構成要素
-
フィードフォワードネットワーク(Feed-Forward Network, FFN)
-
勾配消失問題(Vanishing Gradient Problem)
-
線形変換
-
マルチヘッドの統合
-
コサイン類似度
-
Scaled Dot-Product Attention
-
ベクトルの内積
-
ベクトルの内積を哲学的に考察
-
アラインメント
-
アテンション機構、アテンションメカニズム(Attention Mechanism)
-
セグメント埋め込み(Segment Embedding)
-
位置埋め込み(Positional Embedding)
-
埋め込み行列(Embedding Matrix)
-
コンテキスト依存型埋め込み行列
-
マルチモーダル埋め込み行列(Multimodal Embedding Matrix)
-
Byte Pair Encoding (BPE)
-
テンソル
-
タグ(tag)
-
ファイル変換ツール「Pandoc」の魅力
-
Pandoc(パンドック)
-
Haskell(ハスケル)
-
GPTs
-
NotebookLM
-
Chain of Thought (CoT)
-
ビルドツール
-
ClaudeDev
-
マークダウン(Markdown)形式
-
LLMリーダーボード
-
RIG(Retrieval-Interleaved Generation)
-
Animation.js
-
SVG
-
汎用人工知能(AGI)
-
アラインメント
-
強化学習
-
人工無能
-
セル・オートマトン
-
群知能
-
マルチヘッドAttention
-
Self-Attention
-
ファイルツリー
-
アーキテクチャ
-
Scaled Dot-Product Attention
-
マルチヘッドアテンション
-
LangChain
-
FAISS(Facebook AI Similarity Search)
-
デバッグ
-
SimCLR
-
セグメンテーション
-
ベクトル検索
-
RAG
-
ベクトルデータベース
-
連想配列
-
APIクライアント
-
APIサーバーの役割
-
OpenAPI
-
YAML
-
APIクライアント
-
HTTPリクエスト
-
Webhook
-
ダミーデータ
-
小規模言語モデル(SLM)