IPAS AI 應用規劃師(中級) 衝刺複習主檔
考試日期:2026-05-23 科目編碼:L21 / L22 / L23 版本:v3(2026-05-02 更新,新增三份考試總表 + 初級全文講義作為觀念交叉檢核) 資料來源: - 三科官方學習指引 PDF(科一 168 頁、科二 182 頁、科三 223 頁) - AI 應用規劃師能力鑑定 評鑑內容範圍參考(115.02 版) - 114 年第二梯次中級 — 三科公告試題各 50 題,共 150 題 - 115 年第一次 / 114 年第四梯次初級 — 第一科 + 第二科公告試題(共 4 份,作為下游知識邊界對照) - 學習指引勘誤表(1150410) - 【v3 新增】機器學習分類總表(8 大分類角度) - 【v3 新增】避免過擬合彙整(6 大面向對策表) - 【v3 新增】降維方法考試比較總表(10 種降維技術) - 【v3 新增】iPAS 初級 AI 規劃師證照班全文講義(543 頁;補強 Bias-Variance、自治系統、RAG 比喻、CoT)
0. 使用說明
本檔依使用者要求拆為五大區塊 + 三項輔助章節:
- 必背專有名詞清單(三科分列,可口頭解釋)
- 必須深度理解的核心知識點
- 考試重點(已交叉比對 150 題中級公告試題)
- 三科互動式情境/思考題(另以 HTML Artifact 交付,共 90 題)
- 三科知識重點總表(衝刺藍圖)
- 七天衝刺計畫(5/16–5/22)
- (v2 新增)三科共通命題策略
- 來源備註
來源分級:全文除特別註記外,皆 L1。 v2 更新章節以「【v2 補強】」標示。
1. 必背專有名詞清單(交付物 1)
1.1 科目一:人工智慧技術應用規劃(L21)
NLP(自然語言處理)
- NLP / NLU / NLG:NLP 為總稱;NLU 處理理解(意圖辨識、NER、情感分析);NLG 處理產出(摘要、回應、報告撰寫)
- Tokenization 分詞、POS Tagging 詞性標注、Lemmatization 詞形還原(保留語意)、Stemming 詞幹提取(速度快、結果未必為有效字)、Stopword Removal 停用詞移除
- N-gram(Bi-grams、Tri-grams)、Bag of Words、One-hot Encoding、TF-IDF(TF × IDF;IDF=log(|D|/含 t 的文件數))
- Word2Vec(CBOW=以上下文預測中心詞;Skip-gram=以中心詞預測上下文)、GloVe(全域詞共現矩陣分解)、FastText(子詞 n-gram,可處理 OOV)
- 語境型 vs 非語境型詞嵌入;分布式 vs 非分布式表示
- ELMo(BiLSTM)、BERT(雙向 Transformer Encoder + MLM + NSP)、GPT(單向 Transformer Decoder + 自迴歸)、RoBERTa、T5、PaLM
- RNN、LSTM、GRU(LSTM 簡化版)
- Transformer:Self-Attention、Multi-head Attention、Encoder-Decoder、全平行架構、Positional Encoding、Residual Connection、Layer Normalization、Feed-Forward Network
- Prompt Engineering、Few-shot / Zero-shot Learning、Fine-tuning、RAG 檢索增強生成、幻覺(Hallucination)
- 評估指標:BLEU(機器翻譯)、ROUGE(摘要;含 ROUGE-N、ROUGE-L、ROUGE-S)、人工評估(流暢性、準確性)
CV(電腦視覺)
- 任務:Image Classification、Object Detection、Semantic Segmentation、Instance Segmentation、Image Generation
- 傳統特徵:Canny 邊緣偵測、SIFT、SURF、ORB、HOG
- CNN 元件:Convolutional Layer、Pooling Layer(Max/Average)、Activation Layer、Fully Connected Layer、Softmax;區域感知(Local Receptive Field)、參數共享(Parameter Sharing)
- 經典架構:LeNet、AlexNet(ReLU + Dropout)、VGG(3×3 小卷積核、19 層)、GoogLeNet、ResNet(殘差 Residual Connection,解決梯度消失)、DenseNet、MobileNet、EfficientNet
- 物件偵測:YOLO、Faster R-CNN(RPN)、SSD
- 分割:FCN、U-Net(編解碼 + Skip Connection)、Mask R-CNN
- 多模態 / 生成:CLIP(對比學習圖文對齊)、ViT、DALL·E、Stable Diffusion、Midjourney、SAM
- 評估:Accuracy、Top-5 Error、Confusion Matrix、IOU(Intersection over Union;0~1,>0.5 視為成功)
- 標註工具:LabelImg、CVAT、LabelMe、SuperAnnotate;Bounding Box、Pixel Mask、Keypoint
- 風險:模型偏見、PII 洩漏、Data Drift、模型版本管理
生成式 AI
- 鑑別式 vs 生成式:鑑別式學決策邊界(分類/預測);生成式學資料分佈(產出新樣本)
- 黃仁勳(2025 CES)四階段:Perception AI → Generative AI → Agentic AI → Physical AI
- VAE(變分自編碼器)、GAN(生成器 Generator + 判別器 Discriminator;對抗訓練;Mode Collapse)
- Diffusion Models(逐步去噪;DDPM、Stable Diffusion)、Autoregressive(GPT)
- StyleGAN、CycleGAN、ControlNet、InstructPix2Pix
- 文字工具:ChatGPT、Claude、Gemini、LLaMA、Mistral、Command-R
- 圖像:Midjourney、Stable Diffusion WebUI、Adobe Firefly、Canva AI
- 語音 TTS:Tacotron 2、FastSpeech 2、VITS、Whisper、ElevenLabs、Azure TTS、Google Cloud TTS、Amazon Polly
- 評估:MOS(Mean Opinion Score)、WER(Word Error Rate)
- 治理:RLHF、紅隊測試(Red Teaming)、Alignment、Deepfake、EU AI Act
多模態 AI
- Modality 模態(文字/影像/語音/感測器)
- Cross-modal Embeddings 跨模態表示學習
- CLIP、BLIP / BLIP-2、Flamingo、ImageBind、M3AE、GPT-4V
- 早期融合(Early Fusion)vs 晚期融合(Late Fusion);特徵串接 vs Fusion Layer
AI 導入評估規劃
- POC(Proof of Concept)、Pilot、ROI、NPV、Payback Period
- KPI、As-Is / To-Be、利益關係人(Stakeholders)
- Digital Maturity、Data Governance、ETL、API
- Risk Matrix(發生機率 × 影響程度)、Risk Level、Risk Mitigation
- 法規:GDPR(EU)、PDPA(台灣)、CDPA(維州)、HIPAA(美國醫療)、PCI-DSS(支付卡)
- GDPR 七權:刪除權/遺忘權(Art.17)、修正權(Art.16)、資料可攜權(Art.20)、反對自動化決策(Art.22)、查閱權(Art.15)、處理限制權(Art.18)、同意原則(Art.6/7)
- 同意三要件:自由、明確、可撤回;資料最小化、問責制、DPIA
- WBS、Gantt Chart、Critical Path
- Agile / Scrum:Product Owner、Scrum Master、Development Team;Sprint Planning、Daily Scrum、Sprint Review、Sprint Retrospective;Product Backlog、Sprint Backlog、Increment
- 任務追蹤工具:Trello(Kanban)、Asana、JIRA、ClickUp
- 導入模式:商業服務(Low/No-code、AutoML)、內部開發、委外
- 風險類型:資料品質、模型穩定、跨部門溝通、技能短缺、變革抗拒、侵權
- XAI 可解釋 AI、Explainability、Model Card
AI 部署
- Batch / Real-time / Edge Serving
- MLOps、CI/CD、模型監控、模型漂移(Model Drift)、概念漂移(Concept Drift)、資料漂移(Data Drift)
- Canary Release、A/B Testing、藍綠部署
- Mock-up / 容器化(Docker / Kubernetes)、雲端 vs 本地、邊緣運算(Edge Computing)
【v2 補強】科一新增專有名詞(來自中級科一公告試題)
- RAG(Retrieval-Augmented Generation)檢索增強生成 — 結合語言模型與向量搜尋,核心挑戰在「檢索結果僅語意相似但與查詢意圖不符」
- 向量檢索函式庫:Faiss、ScaNN
- Embedding Model 嵌入模型;Context Window 上下文視窗
- Attention Collapse 注意力分布過於平均(對策:稀疏化約束 Sparsity Constraint)
- 反向翻譯 Back-Translation(低資源語言增強)
- WGAN(Wasserstein GAN)— 解決 Mode Collapse 之主流方法;梯度懲罰 Gradient Penalty
- 全景分割 Panoptic Segmentation = 語意分割 + 實例分割整合
- Stable Diffusion 取樣參數:取樣步數、CFG(Classifier-Free Guidance)值、取樣器
- Multi-Head Outputs 多任務輸出頭、序列標注 Sequence Labeling
- 多任務學習任務間競爭(Loss Function 權重未平衡)
- Phased Rollout 漸進式部署(專科/單病房逐步擴展)
- 不可否認性 Non-repudiation;數位簽章 Digital Signature + 加密雜湊值 Hash
- 對抗樣本訓練 Adversarial Training;對抗性攻擊
- 浮水印 Watermarking;數位指紋 Digital Fingerprint(著作權追溯)
- Auto Scaling 自動彈性伸縮(高流量峰值);水平擴展 vs 垂直擴展
- PSI(Population Stability Index)族群穩定度指數 — 偵測輸入分佈漂移之關鍵指標
- KL 散度(KL Divergence)— 衡量分佈差異
- Model Registry 模型版本登錄(MLOps);Continuous Integration(CI)每次 commit 觸發建置/測試
- Data Sharding 資料分片(GPU 記憶體不足對策)
- ARIMA 殘差白噪音(White Noise)假設、ACF 自相關函數、p/q 參數
- 隱式偏誤 Implicit Bias(訓練語料文化偏向);詞嵌入正規化 Embedding Normalization
- KD-Tree、Ball Tree(DBSCAN 高維加速)
- Embedding Space 嵌入空間;CLIP 跨模態語意對齊偏差
- 資料洩漏 Data Leakage(K-fold 中同時調超參導致樂觀偏差)
- 多任務學習任務間競爭(Loss Function 權重未平衡)
1.2 科目二:大數據處理分析與應用(L22)
機率統計基礎
- 集中趨勢:算術平均、幾何平均(乘積/成長率)、調和平均(速率)、眾數、中位數
- 離散程度:變異數、標準差、全距、四分位距 IQR、四分位數 Q1/Q2/Q3
- 分佈形狀:偏度 Skewness(>0 右偏 / <0 左偏)、峰度 Kurtosis(>3 高峰 Leptokurtic、=3 中峰 Mesokurtic、<3 扁平 Platykurtic;Pearson 定義)
- 箱形圖 Box Plot:Q1、Q3、中位數、上鬚 Q3+1.5×IQR、下鬚 Q1−1.5×IQR、離群值
- 機率質量函數 PMF、機率密度函數 PDF、累積分佈函數 CDF
- 期望值 E(X)、變異數 Var(X)
- 離散分佈:伯努利、二項(np 為平均,np(1−p) 為變異數)、泊松(λ 同時為平均與變異數)
- 連續分佈:常態(中央極限定理)、均勻、指數(無記憶性 Memoryless;1/λ)、卡方(自由度 k)、t 分佈、F 分佈、對數常態
- 點估計、區間估計、信賴區間 CI(95% CI 解讀:重複抽樣下,約 95% 區間涵蓋真實母體參數)
- 假設檢定步驟:設定 H₀/H₁ → 選擇方法 → 決定 α → 計算統計量與 p 值 → 比較決策
- 顯著水準 α、p 值;雙尾 / 左尾 / 右尾
- 型一錯誤(α;誤拒絕 H₀)、型二錯誤(β;誤保留 H₀)、檢定力 1−β
- t 檢定:單樣本、獨立樣本、配對樣本;Welch t、ANOVA、Tukey HSD
- Z 檢定、卡方檢定(獨立性、適配度)、皮爾森 r、斯皮爾曼 ρs
- 非參數:Mann-Whitney U、Kruskal-Wallis、Friedman、Wilcoxon
- 多重比較:Bonferroni 校正、FDR;p 值膨脹
大數據處理技術
- 5V:Volume / Variety / Velocity / Veracity / Value
- 結構化 / 半結構化(JSON、XML、Avro、Parquet)/ 非結構化(影像、語音、文字)
- 資料來源:IoT(MQTT、Kafka)、Log、API、爬蟲、開放資料
- 缺失值:MCAR / MAR / MNAR;填補(均值、中位數、KNN、預測模型)、刪除、保留
- 異常值偵測:Z-score、IQR、Isolation Forest、LOF
- 重複值、一致性錯誤、邏輯錯誤(年齡>120、負數金額、體溫 43°C)
- 分散式儲存:HDFS、副本(Replication)、冗餘、Failover
- NoSQL 類型:Key-Value、Document、Column-family、Graph
- 資料湖 Data Lake / 資料倉儲 Data Warehouse / 資料湖倉 Data Lakehouse
- Delta Lake、Apache Iceberg、Apache Hudi、Hive、Hadoop
- 雲端:AWS Lake Formation、Azure Data Lake、Google BigLake
- 一致性:強一致性 vs 最終一致性、ACID、CAP
- 查詢優化:分區(Partitioning)、索引、Catalyst Optimizer、CBO、Query Throttling
- 版本控制:Time Travel、Incremental Query、Snapshot
- 治理:Metadata、Data Catalog、Data Steward
- 權限模型:RBAC / ABAC / DAC
- Zero Trust:最小權限、Just-In-Time Access、持續驗證、Microsegmentation
- 編碼:One-hot、Ordinal、Label Encoding、Target Encoding
- 縮放:Min-Max、Z-score、Robust Scaling
- 分箱:等寬、等頻、K-Means
- 處理框架:Apache Spark、Hadoop MapReduce、Flink、Beam
- 管線編排:Airflow、Prefect、Kubeflow Pipelines、Luigi
- ETL / ELT、Schema-on-Read vs Schema-on-Write
大數據分析方法與工具
- 近似演算法:HyperLogLog(基數估計)、Count-Min Sketch(高頻項估計)、Welford's Method(線上均值/變異數)、Reservoir Sampling、t-digest
- 時序方法:Moving Average、ARIMA、Prophet、LSTM、Transformer for time series
- 平台:Apache Spark MLlib、TimescaleDB、Meta Prophet、Meta Kats
- 圖分析:中心性(Degree、Betweenness、Closeness、Eigenvector)、PageRank、社群偵測(Louvain、Modularity)、圖嵌入(Node2Vec、GraphSAGE)
- 圖工具:GraphX、Neo4j(Cypher)、NetworkX、iGraph、Gephi
- 文字分析:斷詞、TF-IDF、Word2Vec、GloVe、FastText、BERT、LDA 主題模型;NER、情感分析
- 文字工具:Spark NLP、spaCy、Hugging Face Transformers、Gensim
- 地理空間:點/線/面;空間異質性、空間自相關、Spatial Lag
- KDE Kernel Density Estimation、Getis-Ord Gi*、Moran's I、GWR、IDW、Kriging
- 地理工具:PostGIS、Apache Sedona(GeoSpark)、GeoPandas
- 異常偵測:Isolation Forest、One-Class SVM、Autoencoder、LOF
- 可視化:直方圖、KDE、散佈圖、相關係數矩陣、長條圖、圓餅圖、儀表板、熱力圖
- 視覺化工具:Excel/Sheets、Matplotlib/Seaborn/Plotly、D3.js、Tableau、Power BI、Looker、Qlik、Grafana、Kibana、Apache Superset
大數據在 AI 應用 / 隱私
- Discriminative AI vs Generative AI 對比表
- 模型訓練加速:GPU/TPU、混合精度訓練(Mixed Precision Training, FP16+FP32)、梯度累積(Gradient Accumulation)、梯度壓縮(Top-k Sparsification、Quantization)、Early Stopping、Checkpointing、分散式訓練(Data Parallel / Model Parallel)
- 即時:Kafka、Flink、Spark Streaming、Kinesis、Pub/Sub、Event Hub;Online Learning(SGDClassifier、Vowpal Wabbit、River)、Incremental Learning
- 資料漂移偵測:KS test、KL Divergence、PSI;Evidently、WhyLabs
- PETs(Privacy Enhancing Technologies):
- 匿名化:Masking 遮蔽、Hashing 雜湊(SHA-256)、Generalization 泛化、Suppression 抑制
- 進階:k-匿名(K-Anonymity)、l-多樣性(L-Diversity)、t-接近性(T-Closeness)、隨機擾動 Noise Injection、差分隱私 Differential Privacy(DP-SGD;ε)、聯邦學習 Federated Learning、同態加密 Homomorphic Encryption(FHE/PHE)、安全多方計算 MPC、數位簽章
- 法規再延伸:GDPR、CCPA、PDPA;個資合法依據、DPIA、跨境傳輸 SCC/BCR
- Active Learning 主動學習、Crowdsourcing(MTurk、Appen)、弱監督式標註
【v2 補強】科二新增專有名詞(來自中級科二公告試題)
- Z-score 計算與判讀:Z = (x − μ) / σ;|Z| ≥ 3 視為異常值
- pandas 常用語法:
.describe()多項敘述統計;.isna() / .isnull()(等價)缺失值偵測;.fillna().astype()、'Int64'(支援 NA 整數);.groupby().sum/mean/count()、.nlargest(n) - seaborn 常用:
sns.barplot、sns.countplot、sns.lineplot、pd.melt(value_vars=...) - sklearn 常用:
LinearRegression().fit(X, y)— 注意 fit 順序 - statsmodels:
sm.OLS(y, X).fit()、迴歸係數顯著性、截距項 - CDF 累積分佈函數(= PDF 的積分)
- Box-Cox 轉換 — 處理右偏 + 變異隨 X 增加之資料
- 一階差分(First Differencing)— 時序去趨勢
- 分位數迴歸(Quantile Regression)— 不依賴常態假設、聚焦尾部風險
- 二項分佈常態近似條件:np > 5 且 n(1−p) > 5
- ACID 四特性逐條:Atomicity 原子性(全成功或全 Rollback)、Consistency 一致性、Isolation 隔離性、Durability 持久性
- 雙比例 Z 檢定 Two-proportion Z-test(良率比較)
- Stratified K-Fold(類別比例維持,避免不平衡偏差)
- LOOCV、Hold-out、Bootstrap 驗證對比
- 近似分位數 Approximate Quantile(t-digest 等)
- 知識圖譜 RDF(Resource Description Framework)三元組(Subject–Predicate–Object)
- 圖資料庫設計:邊屬性(Edge Property)儲存互動屬性(時間戳記、裝置類型)
- 高維 DBSCAN 失效原因 — 距離趨同(Curse of Dimensionality)
- 偽匿名化 Pseudonymization;輸出內容稽核機制
- Edward Tufte 數據密度(Data Density)原則
- 對數刻度(Log Scale)凸顯高金額層級差異
- 關聯規則三指標完整:支持度 Support、信賴度 Confidence、提升度 Lift(>1 表正向關聯)
1.3 科目三:機器學習技術與應用(L23)
機器學習基礎數學
- 條件機率、貝氏定理(P(A|B) = P(B|A)P(A)/P(B))、聯合機率、邊際機率
- 最大概似估計 MLE、最大事後估計 MAP、共軛先驗
- 機率分佈(同 L22 + 多元常態 Multivariate Normal)
- 線性代數:純量、向量、矩陣、張量;L1/L2 範數;內積、外積;矩陣乘法、轉置、逆矩陣、偽逆;正交矩陣;對角矩陣;對稱矩陣
- 矩陣分解:特徵值分解 EVD(A = QΛQᵀ)、奇異值分解 SVD(M = UΣVᵀ)、PCA、LDA、NMF
- 凸函數 vs 非凸函數;局部最優 vs 全域最優;鞍點(Saddle Point)
- 損失函數:MSE、MAE、Huber、Cross-Entropy、Hinge Loss、Contrastive Loss、Ranking Loss、Focal Loss
- 優化器:GD、SGD、Mini-batch SGD、Momentum、Nesterov、Adagrad、RMSprop、Adam(結合動量 + RMSprop;內建動量)、AdamW
- 學習率(Learning Rate)、學習率排程(Step Decay、Cosine Annealing、Warm-up)
- 梯度爆炸 / 消失;梯度裁剪 Gradient Clipping;批次正規化 Batch Normalization、層正規化 Layer Normalization
機器學習與深度學習
- 監督式 / 非監督式 / 半監督式 / 強化式 / 自我監督式
- 分類 / 迴歸 / 聚類 / 降維 / 序列決策
- MDP(代理人 Agent、環境 Environment、狀態 State、動作 Action、報酬 Reward、策略 Policy、值函數 V/Q);Q-learning、SARSA、DQN、Policy Gradient、Actor-Critic、PPO
- 線性迴歸:OLS 最小平方估計、R²、Adjusted R²、MSE、RMSE、MAE
- Lasso(L1;稀疏化、特徵選擇)、Ridge(L2;權重衰減、抑制共線性)、Elastic Net
- Logistic Regression(伯努利;Sigmoid;對數勝率 Log-Odds 線性);多類別 Softmax
- SVM:超平面、間隔(Margin)、支持向量、軟邊界 C、核函數(線性、多項式、RBF、Sigmoid);SVR(ε-不敏感區)
- Decision Tree:Gini Impurity、Information Gain(資訊增益)、Entropy、Information Gain Ratio;CART、ID3、C4.5;最大深度 max_depth、最小分裂樣本 min_samples_split;前剪枝、後剪枝
- Ensemble:Bagging(Random Forest;Bootstrap + 隨機特徵)、Boosting(AdaBoost、GBDT、XGBoost、LightGBM、CatBoost);Stacking、Voting
- XGBoost vs GBDT 主要改進:正則化抑制過擬合、缺失值自動處理、並行化訓練、Block 結構;LightGBM:Histogram-based、Leaf-wise
- KNN(惰性學習、需特徵縮放、K 值選擇、維度詛咒)、Naïve Bayes(條件獨立假設;高斯/多項式/伯努利;Laplace 平滑)
- 聚類:K-means(質心 Centroid、需指定 K)、Hierarchical(凝聚 Agglomerative / 分裂 Divisive、Dendrogram)、DBSCAN(Core Point、Border Point、Noise Point、Density Reachability;ε、MinPts)、GMM(EM 演算法)
- 降維:PCA、t-SNE、UMAP、LDA、SVD、Autoencoder
- 關聯規則:Apriori(支持度 Support、信賴度 Confidence、提升度 Lift)、FP-Growth
- 異常偵測:Isolation Forest、One-Class SVM、LOF、Autoencoder
- 神經網路元件:神經元、加權求和、激活函數(Sigmoid、Tanh、ReLU、Leaky ReLU、Softmax、GELU);前向傳播 / 反向傳播 Backpropagation;連鎖律 Chain Rule;梯度
- MLP / Feedforward Network
- CNN:卷積核 Filter / Kernel、特徵圖 Feature Map、Stride、Padding、感受野 Receptive Field、權重共享、Pooling(Max/Average)
- 經典 CNN:LeNet、AlexNet、VGG、GoogLeNet(Inception)、ResNet、DenseNet、MobileNet、EfficientNet
- RNN / LSTM(Input/Forget/Output Gate + Cell State,解決梯度消失)/ GRU(Update + Reset Gate,LSTM 簡化版)/ BiRNN
- Transformer:Self-Attention、Q/K/V、Scaled Dot-Product、Multi-head、Positional Encoding、FFN、Residual + LayerNorm、Encoder-Decoder
- 進階模型:BERT、GPT、T5、ViT、Longformer、Reformer、Performer
- 生成模型:Autoencoder、VAE、GAN(Generator vs Discriminator;Zero-sum Game);Diffusion
- 框架:TensorFlow / Keras、PyTorch、JAX、Hugging Face;Eager Execution
機器學習建模與參數調校
- 缺失值補齊、異常值處理、重複/一致性檢查、平衡(SMOTE 過採樣、Tomek Links 欠採樣)
- 特徵工程:特徵選擇(Filter:卡方/相關係數;Wrapper:RFE;Embedded:Lasso/樹模型重要度)、特徵衍生、聚合特徵、互動特徵(Interaction Features)、時間特徵
- 編碼、縮放(同 L22)
- 資料增強:圖像翻轉/旋轉、文字同義字替換、時序 Jittering、SMOTE
- 訓練/驗證/測試切分:Hold-out、K-fold、Stratified K-fold(類別比例維持)、Leave-One-Out(LOOCV)、Stratified Leave-One-Out、Time Series CV、Rolling Window
- 訓練模式:Batch GD、SGD、Mini-batch
- 評估指標(分類):Accuracy、Precision、Recall、F1、F-beta、ROC-AUC、PR-AUC、Confusion Matrix、Macro/Micro/Weighted F1
- 評估指標(迴歸):MSE、RMSE、MAE、MAPE、R²、Adjusted R²
- 評估指標(聚類):Silhouette Score、Davies-Bouldin、Calinski-Harabasz
- 評估指標(排序/推薦):NDCG、MAP、Precision@K
- 過擬合 / 欠擬合;偏差 / 變異數權衡(Bias-Variance Tradeoff)
- 正則化:L1 Lasso、L2 Ridge、Elastic Net、Dropout、Batch Norm、Layer Norm、Early Stopping、Data Augmentation、Label Smoothing
- 超參數調校:Grid Search、Random Search(高維搜尋更有效率)、Bayesian Optimization、Hyperband、AutoML、Optuna
- 模型壓縮:剪枝 Pruning、知識蒸餾 Knowledge Distillation(教師→學生)、量化 Quantization(FP32→INT8;QAT)、混合精度訓練、稀疏化、低秩分解
- 部署:Caching、模型蒸餾、TFLite / ONNX / TensorRT
- MLOps:MLflow、Weights & Biases、SageMaker Pipelines、Vertex AI、Kubeflow Pipelines、Model Registry
機器學習治理
- 個資 PII / 準識別資訊 Quasi-Identifiers / 間接識別資訊
- 敏感度層級:一般、機密、個人、高度敏感
- PIA 隱私影響評估(資料流盤點 → 風險辨識 → 影響分析 → 緩解 → 持續監督)
- 同 L22 PETs 全部
- 法規:GDPR、CCPA、PDPA、HIPAA、PCI-DSS;明確同意、契約必要、公共利益/學術研究、非個人資料
- AI 偏見來源:抽樣偏差(Sampling Bias)、特徵偏差(Feature Bias)、標籤偏差(Label Bias)、確認偏差、歷史性偏見
- 公平性指標:Demographic Parity(群體平等率)、Equal Opportunity(實際正例的真陽率相等)、Equalized Odds(TPR + FPR 都相等)、Predictive Parity、Calibration
- 公平性工具:IBM AI Fairness 360(AIF360)、Microsoft Fairlearn
- 偏見修正:資料前處理(重採樣、重加權)、In-processing(對抗式去偏 Adversarial Debiasing)、後處理(門檻調整 Threshold Adjustment、結果校準 Calibration)
- 治理:AI Governance、Chief AI Officer、Data Steward、Model Card、Data Catalog、合規稽核
【v3 補強】跨科共通名詞(來自三份考試總表 + 初級講義)
- 學習範式分類完整 8 角度(來自《機器學習分類總表》):
- 學習訊號:監督 / 非監督 / 半監督 / 自監督 / 強化(已涵蓋)
- 資料到達:批次學習 / 線上學習 / 增量學習(已涵蓋)
- 知識轉移:遷移學習 / 多任務學習 / 元學習(Meta-learning,learning to learn) / 終身學習(Lifelong/Continual Learning,避免災難性遺忘 Catastrophic Forgetting)
- 標註稀少:主動學習 / 弱監督 / 少樣本 / 一樣本學習(One-shot Learning) / 零樣本
- 模型目的:判別式(Discriminative)/生成式(Generative)/表徵式(Representation Learning)
- 模型組合:集成 / 深度 / 機率式學習(Probabilistic Learning,Bayesian Network、HMM)
- 隱私架構:聯邦 / 分散式 / 隱私保護學習(Privacy-preserving Learning)
- 任務形式:分類 / 迴歸 / 分群 / 降維 / 異常偵測 / 排序學習(Learning to Rank) / 推薦系統
- 降維方法完整光譜(來自《降維方法考試比較總表》):
- 線性 + 非監督:PCA、ICA、SVD、NMF、Random Projection
- 線性 + 監督:LDA(Linear Discriminant Analysis)— 唯一監督式降維
- 非線性:Kernel PCA、t-SNE、UMAP、Autoencoder
- 過擬合對策完整 6 面向(來自《避免過擬合彙整》):
- 資料面:增加資料量、資料增強、資料清理
- 特徵面:特徵選擇(Filter / Wrapper / Embedded)、特徵降維
- 模型面:降低複雜度、L1/L2 正則化、剪枝、Dropout
- 訓練面:Early Stopping、Batch Normalization
- 評估面:驗證集、交叉驗證、避免資料洩漏
- 集成面:Bagging / RF、Boosting 複雜度控制
- 來自初級講義的關鍵概念補強:
- Bias-Variance Tradeoff(偏差–變異權衡):Bias 高 → 欠擬合、Variance 高 → 過擬合;不可兼得,需取得平衡
- 生成模型四大家族對比:Transformer(Attention + 自迴歸)/ GAN(對抗訓練,影像細節銳利但訓練不穩)/ VAE(機率潛在空間,訓練穩定但影像模糊)/ Diffusion(逐步去噪,品質穩定多樣性高但推論慢)
- AI 自治四階層:輔助(Assistive)→ 半自動(Human-over-the-loop)→ 高度自動(Agentic Workflow)→ 自治系統(Autonomous Systems,人類設定目標、AI 完成)
- RAG 比喻:LLM = 閉卷考、RAG = 開卷考(可翻公司手冊再回答)
- CoT(Chain-of-Thought)思維鏈:Few-shot CoT 透過示範推理步驟讓模型學會「先推理、再答」
- AI Agent 三要素:感知(Perception)+ 推理規劃(Reasoning/Planning)+ 行動(Action)
- Hard-coding vs ML:傳統程式為人工寫死規則;ML 為「給數據與答案,讓演算法自己找規則」
2. 必須深度理解的核心知識點(交付物 2)
這些不是名詞解釋,而是「考題會以情境包裝,要你判斷選用、解釋差異、辨識錯誤」的內容。準備時必須能講出原理、適用條件、典型誤用。
2.1 三科共通主軸
- 鑑別式 vs 生成式:目標(決策邊界 vs 資料分佈)、輸出(類別/數值 vs 新樣本)、模型代表、訓練方式差異。
- 過擬合的成因與所有對策:模型過複雜 / 資料過少 / 訓練過長 → L1/L2、Dropout、Early Stopping、資料增強、簡化模型、交叉驗證、Batch Norm。重點:擴增輸入特徵變數會增加複雜度,不屬於降低複雜度的策略(114 年第三科第 26 題正是此題)。
- 偏差–變異數權衡:欠擬合(高偏差)vs 過擬合(高變異數),如何透過模型容量與正則化取捨。
- 資料/概念/模型漂移:三者差異與 PSI / KS / KL 等偵測法。
2.2 科目一:必須深度理解
- NLP 四階段演進邏輯:Rule-based → 統計(N-gram、HMM、CRF)→ 深度學習(RNN/LSTM/GRU)→ Pre-trained(Transformer 系)。每階段「解決前一階段什麼痛點」「但仍有什麼限制」。
- Transformer 為何能取代 RNN:Self-Attention 捕捉長距離依賴 + 全平行架構 + Positional Encoding + Encoder-Decoder。Multi-head 的目的:從「不同表示子空間同時捕捉多樣化關聯」(114 年第三科第 21 題)。
- BERT vs GPT:雙向 vs 單向、MLM 適合理解任務 vs 自迴歸適合生成任務。
- CV 任務四階層差異:分類(整張圖貼一個標籤)→ 物件偵測(框 + 類別)→ 語意分割(像素類別,不分實體)→ 實例分割(像素類別 + 實體 ID)。
- CNN 相對全連接神經網路的優勢:區域感知(Local Receptive Field)+ 參數共享 → 大幅降低參數量與計算複雜度(114 年第三科第 6 題)。第一層卷積層負責「自動提取局部特徵」(第 5 題)。
- 生成式 AI 風險治理:幻覺、版權、深偽、偏見放大、輸出不可控 → 對應對策(RLHF、紅隊、Alignment、規範)。
- AI 導入評估「三層」:業務需求(As-Is/To-Be、KPI)→ 技術可行性(資料品質、IT 能力、適配性)→ 成本效益(ROI、NPV、Payback)。POC 必備條件:範圍清晰、可控、具代表性、利害關係人支持。
- GDPR 七大權利(Art.15、16、17、18、20、22、6/7),特別是反對自動化決策權(Art.22)。
- 委外 vs 內部 vs 商業服務三種導入模式的優缺點與適用情境。
- MLOps 部署模式選擇:Batch / Real-time / Edge,以及對應的監控與版本管理。
- 【v2】RAG 檢索品質:檢索階段最大挑戰是「向量檢索結果僅語意相似但與查詢意圖不符」(科一 17)。
- 【v2】Attention Collapse 對策:對注意力權重施加稀疏化約束(科一 18),非加噪或換激活。
- 【v2】低資源語言:Back-Translation 生成偽平行語料,優於僅擴大模型(科一 19)。
- 【v2】GAN Mode Collapse:WGAN(Wasserstein 損失)為主流解法(科一 20)。
- 【v2】多模態缺失:訓練具「模態缺失感知能力」的模型最有效,優於零向量填充或捨棄樣本(科一 21)。
- 【v2】資料漂移偵測:KL Divergence、PSI 為兩大主流量化指標(科一 22、32、46)。
- 【v2】漸進式部署 Phased Rollout:從單一專科/單病房逐步擴展,優於夜班或全院同步(科一 23)。
- 【v2】對抗性攻擊解法:對抗樣本訓練(In-model)、規則引擎(Post-hoc)、輸入過濾(Pre-hoc)為三層;網路防火牆「不」針對模型脆弱性(科一 24)。
- 【v2】生成式 AI 著作權對策:訓練資料篩選與授權驗證為「源頭」,優於相似度比對、差分隱私、浮水印(科一 25)。
- 【v2】不可否認性:加密 Hash + 數位簽章,確保推論輸入/輸出可法務追蹤(科一 30)。
- 【v2】高吞吐 AI 服務:容器化 + 水平擴展 + Auto Scaling,優於垂直擴展或限制併發(科一 31)。
- 【v2】模型監控最具預測力指標:PSI(輸入分佈穩定度)優於系統 CPU、回應時間、置信度(科一 32)。
- 【v2】K-fold 與超參同步調校 → 資料洩漏:測試摺資料間接參與選擇,造成過度樂觀偏差(科一 41)。
2.3 科目二:必須深度理解
- 集中趨勢三均數的選用:算術(對稱)、幾何(乘積/成長率)、調和(速率/效率)。中位數對抗極端值。
- 箱形圖的離群值定義:Q1−1.5×IQR / Q3+1.5×IQR。注意「上鬚」不等於資料最大值。
- 偏度與峰度:右偏(平均>中位數)、左偏(平均<中位數);Pearson 峰度標準=3。
- 常態分佈與中央極限定理:當樣本量足夠大,獨立同分佈樣本的均值會趨近常態。注意:不是「任何資料」都會呈現常態(這是常見誤導陳述)。
- 指數分佈無記憶性:用於等待時間建模。
- PMF vs PDF:離散用 PMF、連續用 PDF;PDF 在某點「值」非機率,需積分得區間機率。
- 點估計 vs 區間估計;95% CI 的正確解讀:不是「真實參數有 95% 機率落在此區間」,而是「重複抽樣時約 95% 的區間會涵蓋真實參數」。
- 假設檢定五步驟:H₀/H₁ → 方法 → α → 統計量+p 值 → 決策。p 值膨脹(大樣本下顯著性過敏)、需配合效果量。
- 型一 vs 型二錯誤:α=誤拒(誤判有差);β=漏判(誤判無差);Power = 1−β。
- 檢定方法配對:單樣本 t、獨立樣本 t(+Welch)、配對 t、ANOVA(三組以上 + Tukey)、卡方獨立性 / 適配度、皮爾森 r、斯皮爾曼 ρ、Mann-Whitney U、Kruskal-Wallis、Friedman。
- Bonferroni 校正多重比較。
- 5V:Volume、Variety、Velocity、Veracity、Value 各自帶來什麼挑戰與對策。
- 資料品質五類問題:缺失(MCAR/MAR/MNAR)、異常、重複、一致性、邏輯。
- 資料湖 vs 資料倉儲 vs 資料湖倉:Schema-on-Read vs Schema-on-Write、彈性 vs 結構治理。
- 強一致性 vs 最終一致性;CAP 取捨。
- Zero Trust 四原則:最小權限、JIT Access、持續驗證、Microsegmentation。
- 特徵縮放對距離型/梯度型模型必要(KNN、SVM、線性迴歸、神經網路)(114 年第三科第 9 題)。
- 編碼策略選擇:類別少且無序 → One-hot;有序 → Ordinal;高基數 → Target Encoding(注意資料洩漏)。
- 分散式運算典範:MapReduce(Hadoop)→ Spark(記憶體 RDD/DataFrame)→ Flink(低延遲流式)→ Beam(統一抽象)。
- 同態加密 vs 安全多方計算 vs 差分隱私 vs 聯邦學習:核心特性與適用情境。
- 【v2】Z-score 異常值判斷:|Z| ≥ 3 通常視為異常;Z=2 表離平均 2 個標準差(科二 1、16)。
- 【v2】CDF = PDF 積分(科二 4);PMF 在離散值上的點機率與 PDF 「值」非機率的差異。
- 【v2】Label Encoding 在無序類別會引入虛假順序;在 Gradient Boosting / Random Forest 等樹模型中影響特徵重要性偏誤(科二 5、17)。
- 【v2】Standardization 「不」會壓到 [0,1];Min-Max 才會。常見題幹陷阱(科二 6)。
- 【v2】ACID 四特性:Atomicity = 全成功或全 Rollback(科二 7、18);Consistency 規則完整性;Isolation 並行隔離;Durability 持久。
- 【v2】Robust Scaling:用中位數與 IQR,適合含極端值資料(科二 9)。
- 【v2】PCA 前必須標準化:否則大尺度欄位主導第一主成分(科二 29 的金額 vs 年齡)。
- 【v2】二項分佈常態近似條件:np > 5 且 n(1−p) > 5,而非「樣本大就近似」(科二 31)。
- 【v2】分位數迴歸:不依賴常態假設,聚焦尾部極端風險(金融、醫療常用,科二 33)。
- 【v2】Box-Cox 轉換:處理右偏 Y 與隨 X 增加的異質變異(科二 36)。
- 【v2】SMOTE vs 隨機過採樣:SMOTE 合成新樣本,降低過擬合風險(科二 12、37)。
- 【v2】雙比例 Z 檢定:比較兩組良率/比例(科二 38);Stratified K-Fold 為不平衡分類的標準作法(科二 39)。
- 【v2】關聯規則三指標:Support 共現比例、Confidence 條件機率、Lift > 1 為正向關聯(科二 26)。
- 【v2】RDF 三元組與屬性圖:知識圖譜首選 RDF;互動屬性適合做為邊屬性(科二 34、35)。
- 【v2】高維 DBSCAN 失效:距離趨同(維度詛咒);效能可用 KD-Tree/Ball Tree 加速(科二 28、科一 48)。
- 【v2】偽匿名化 Pseudonymization + 輸出稽核:LLM 防止個資外洩之首選實務(科二 32)。
- 【v2】Tufte 數據密度原則:同圖整合多區域趨勢、顏色區分、保留輔助線(科二 21)。
- 【v2】熱力圖 + 相關係數矩陣:多變數關聯強度與方向視覺化首選(科二 22)。
- 【v2】單樣本 t 結合信賴區間判讀:若 H₀ 值落在 95% CI 內 → 無法拒絕;p > α 不代表 H₀ 為真(科二 23)。
- 【v2】近似分位數:在可容忍誤差內快速估算分位值,支援即時分析(科二 27)。
2.4 科目三:必須深度理解
- 線性代數基礎與 PCA:標準化 → 協方差矩陣 → 特徵值分解 → 取最大特徵值方向為主成分;累積解釋變異量判斷保留幾維(114 年第 35 題:λ=6,3,1 → 前兩主成分 90%,可降至 2 維)。
- 凸函數 vs 非凸函數:非凸導致多個局部最優解,使最佳化結果不穩定(114 年第 3 題)。
- L1 vs L2 vs Elastic Net:L1 產生稀疏權重(自動特徵選擇);L2 抑制權重幅度但保留全部;Elastic Net 結合兩者優點(114 年第 2、32 題)。
- 優化器特性:SGD(基本)、Momentum(加慣性)、Adagrad(自適應、稀疏特徵)、RMSprop(穩定、適 RNN)、Adam(動量+RMSprop,內建動量機制)(114 年第 17 題)。
- 梯度消失 / 爆炸:LSTM/GRU/ResNet/BatchNorm/梯度裁剪/ReLU/合適初始化。
- 激活函數:線性 vs 非線性;線性多層 = 單層線性。Sigmoid 易飽和 → ReLU(114 年第 27 題:線性激活停滯改用 ReLU);Sigmoid 適合二元;Softmax 多類別。
- 損失函數對應任務:迴歸 MSE/MAE/Huber;分類 Cross-Entropy/Focal;排序 Ranking。MSE 對極端值敏感、MAE 對極端值穩健。
- R² 解讀:解釋變異比例;0.85 表「85% 變異可被模型解釋」(114 年第 15 題),不是準確率。
- F1 計算:2·P·R/(P+R)。P=0.8、R=0.6 → F1=0.686(114 年第 16 題)。
- DBSCAN:Core Point(ε 內 ≥ MinPts)、Border Point、Noise Point;非核心 + 不被任何核心點 ε 覆蓋 + 無密度可達 → Noise(114 年第 4 題)。
- CNN 設計理由(同上 2.2 第 5 點)。
- LSTM:適合序列/時間依賴任務(114 年第 7 題:電力需求趨勢)。
- 資訊增益用於決策樹(114 年第 8 題;非線性模型用 L1、非神經網路、非 SVM 核函數)。
- AutoML 適用情境:缺乏專職資料科學家、需快速比較多模型、低客製化(114 年第 10 題)。
- Random Search vs Grid Search:RS 在「高維參數空間」更有效率(114 年第 11 題)。
- 學習率:控制權重更新速度,過大發散、過小停滯(114 年第 12 題)。
- 偏見類型分辨:標籤偏差(人工標註主觀)、特徵偏差、抽樣偏差(訓練樣本族群不代表整體;114 年第 28 題:只用活躍顧客→新註冊低消費預測差)、確認偏差。
- 可解釋性:醫療診斷、金融風控、招聘等高風險場景必備(114 年第 14 題)。
- XGBoost vs GBDT:正則化抑制過擬合、缺失值自動處理、並行化訓練(114 年第 18 題)。
- 不平衡資料處理:SMOTE 過採樣、欠採樣、類別權重、Focal Loss、Stratified;不可用 Accuracy(114 年第 19 題)。
- 互動特徵:兩特徵相乘 / 交互組合(114 年第 20 題)。
- 多頭注意力:不同表示子空間捕捉多樣化關聯(114 年第 21 題)。
- 貝氏定理應用:條件機率推論「在觀察到 X 行為下,Y 發生機率」(114 年第 22 題)。
- 蒙地卡羅模擬:隨機抽樣模擬不確定情境,估算分佈與風險區間(114 年第 23、41 題)。
- 殘差圖診斷:系統性彎曲 = 異常值或非線性違反假設(114 年第 24 題)。
- 信用評分卡標準流程:特徵選擇、多重共線性分析、分箱 Binning、IV 資訊值、PSI 樣本穩定性;不使用生成式模型作為標準步驟(114 年第 25 題)。
- 時間序列 CV:Time Series CV / Rolling Window 適合非穩態環境,避免未來資訊洩漏(114 年第 29 題)。
- F1 在跨語言遷移失準:語言差異造成 Recall 下降(114 年第 30 題)。
- Early Stopping with Patience:監控驗證集,連續多輪未改善才停(114 年第 31 題)。
- Lasso 自動特徵選擇(114 年第 32 題)。
- 時間複雜度 O(1) / O(log n) / O(n) / O(n²) / O(n log n) / O(2ⁿ)(114 年第 33 題:兩兩比對為 O(n²))。
- Stratified Leave-One-Out:小樣本 + 類別不平衡(114 年第 34 題)。
- 同態加密:加密狀態下可進行數值運