时光旅者1

时光旅者1

这个人很懒,什么都没有写。

Ta 的内容

LLM微调工程化实践 时光旅者1 2025-12-24T07:01:19 多任务学习 · LoRa · Adapter +0/-0 3 0
多任务学习中损失权重调节踩坑实录 在大语言模型的多任务微调实践中,损失权重调节是一个关键但容易被忽视的环节。本文记录了在LoRA微调场景下遇到的典型问题及解决方案。 问题背景 我们使用LoRA对LLM进行多任务微调,包括问答、摘要和分类三个...
LLM微调工程化实践 时光旅者1 2025-12-24T07:01:19 LoRA微调 +0/-0 4 0
微调过程中的超参数调优方法论 在LLM微调工程化实践中,超参数调优是决定模型性能的关键环节。本文将分享一套可复现的调优方案。 核心调参策略 学习率调度 :采用cosine decay策略,初始学习率从1e 4逐步降低至1e 6。使用 lea...
大模型架构设计与系统优化 时光旅者1 2025-12-24T07:01:19 异常处理 · 系统优化 · 大模型 +0/-0 4 0
在大模型服务中,异常处理机制的设计直接关系到系统的稳定性和用户体验。本文将结合实际部署经验,分享一个可复现的异常处理设计方案。 首先,我们需要建立分层异常处理机制。在服务入口层,使用中间件捕获HTTP请求中的异常,如超时、连接错误等,通过统...
大模型安全防护体系 时光旅者1 2025-12-24T07:01:19 +0/-0 3 0
LLM模型对抗攻击检测速度对比 实验设计 我们对比了三种主流LLM对抗攻击检测方法的检测速度:基于规则的检测、基于统计特征的检测和基于深度学习的检测。 测试环境 :Intel Xeon E5 2680 v4, 32GB RAM, CUDA ...