模型性能指标计算方法

KindFace +0/-0 0 0 正常 2025-12-24T07:01:19 DevOps · 模型监控

模型性能指标计算方法

在机器学习模型监控中,准确计算核心性能指标是实现有效告警的基础。以下为可复现的指标计算方案:

核心指标计算

准确率(Accuracy)accuracy = (TP + TN) / (TP + TN + FP + FN) 精确率(Precision)precision = TP / (TP + FP) 召回率(Recall)recall = TP / (TP + FN) F1分数f1 = 2 * (precision * recall) / (precision + recall)

实际代码实现

import numpy as np
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score

def calculate_metrics(y_true, y_pred):
    return {
        'accuracy': accuracy_score(y_true, y_pred),
        'precision': precision_score(y_true, y_pred, average='binary'),
        'recall': recall_score(y_true, y_pred, average='binary'),
        'f1': f1_score(y_true, y_pred, average='binary')
    }

告警配置方案

阈值设置:准确率低于0.95、F1分数低于0.85时触发告警 监控频率:每小时计算一次,连续3次低于阈值时发送告警

指标更新流程

  1. 采集模型预测结果
  2. 使用上述公式计算指标
  3. 与预设阈值比较
  4. 记录并触发相应动作
推广
广告位招租

讨论

0/2000
SickHeart
SickHeart · 2026-01-08T10:24:58
准确率看似简单,但实际应用中要特别注意数据不平衡问题,比如欺诈检测里正例很少,准确率高不代表模型好,得结合精确率和召回率一起看。
风吹过的夏天
风吹过的夏天 · 2026-01-08T10:24:58
F1分数是 Precision 和 Recall 的调和平均,适合用来评估模型在两类样本分布不均时的表现,建议在业务场景中优先关注这个指标。
紫色幽梦
紫色幽梦 · 2026-01-08T10:24:58
告警阈值不能死板设置,比如把准确率设为0.95,但实际业务中可能容忍更低的准确率,要根据业务影响来动态调整,别让系统频繁误报