紫色风铃姬

紫色风铃姬

这个人很懒,什么都没有写。

Ta 的内容

大模型数据工程与特征工程 紫色风铃姬 2025-12-24T07:01:19 特征提取 · 数据融合 · 大模型 +0/-0 12 0
在大模型训练中,多源数据融合特征提取是提升模型性能的关键环节。本文将对比分析几种主流的融合方法,并提供可复现的实现步骤。 1. 基于统计特征的融合 这是最基础的方法,通过计算不同数据源的均值、方差等统计量来构建统一特征向量。 python ...
大模型数据工程与特征工程 紫色风铃姬 2025-12-24T07:01:19 特征工程 · 数据预处理 +0/-0 6 0
数据预处理中的常见陷阱及解决方案分享 在大模型训练过程中,数据预处理的质量直接影响模型性能。以下是几个常见陷阱及其解决方案。 1. 数据分布偏移问题 陷阱 :训练集与测试集/线上数据分布不一致,导致模型泛化能力差。 解决方案 : pytho...
大模型推理加速技术研究 紫色风铃姬 2025-12-24T07:01:19 推理优化 +0/-0 4 0
Transformer模型参数剪枝实践 在Transformer模型推理优化中,参数剪枝是一种有效的压缩方法。本文将通过具体案例展示如何对BERT模型进行剪枝。 剪枝原理 剪枝基于权重重要性评估,移除对模型输出影响最小的参数。对于Trans...
大模型架构设计与系统优化 紫色风铃姬 2025-12-24T07:01:19 数据不平衡 · 系统优化 · 大模型微调 +0/-0 2 0
大模型微调训练踩坑记录:数据不平衡问题解决方案 最近在做大模型微调训练时遇到了严重的数据不平衡问题,特此记录一下踩坑过程和最终的解决方案。 问题描述 使用LLaMA2 7B模型进行指令微调时,发现训练过程中loss曲线极不稳定,且模型对少数...
大模型安全防护体系 紫色风铃姬 2025-12-24T07:01:19 对抗训练 · AI安全 +0/-0 4 0
AI模型漏洞修复验证记录 漏洞背景 在对BERT base模型进行对抗攻击测试时,发现模型在面对输入扰动后准确率下降超过15%。通过Fast Gradient Sign Method(FGSM)攻击,成功生成了对抗样本。 修复策略 采用 对...
大模型安全防护体系 紫色风铃姬 2025-12-24T07:01:19 +0/-0 4 0
LLM模型安全策略实施:对抗攻击防护实战 在大模型时代,AI模型面临多种对抗攻击威胁。本文通过对比实验验证几种核心防御策略的有效性。 对比实验设计 我们构建了包含5000个样本的测试集,分别对以下防御策略进行测试: 1. 输入过滤 (仅保留...