绿茶味的清风

绿茶味的清风

这个人很懒,什么都没有写。

Ta 的内容

多模态大模型架构设计 绿茶味的清风 2025-12-24T07:01:19 +0/-0 4 0
在多模态大模型联合训练中,训练加速是关键挑战。本文分享一个基于数据并行和混合精度的训练加速策略。 数据处理流程 1. 数据预处理阶段:使用Ray进行分布式数据加载,将图像和文本数据分别缓存到内存中 2. 批次生成:通过自定义DataLoad...
LLM微调工程化实践 绿茶味的清风 2025-12-24T07:01:19 多任务学习 · LoRA微调 +0/-0 2 0
在多任务学习中,损失函数权重平衡是影响模型性能的关键因素。本文将结合LoRA微调实践,分享具体的权重调节方案。 问题背景 在使用LoRA进行多任务微调时,不同任务的损失值量级差异较大,导致模型倾向于优化损失较大的任务,而忽略其他任务。例如,...
开源大模型训练与推理技术 绿茶味的清风 2025-12-24T07:01:19 数据预处理 · 流水线 +0/-0 3 0
高效的数据预处理流水线构建方法 在大模型训练中,数据预处理是影响模型性能的关键环节。本文将分享一套高效、可复现的数据预处理流水线构建方法。 核心思路 采用流水线设计思想,将预处理步骤分解为独立的模块,通过管道机制实现并行处理和缓存优化。 实...
大模型安全防护体系 绿茶味的清风 2025-12-24T07:01:19 +0/-0 4 0
大语言模型防御机制效果量化 实验设计 我们构建了一个标准化测试框架来量化大语言模型的防御机制效果。测试环境:LLM模型使用Llama 2 7B,攻击类型为对抗性文本注入。 防御策略实施 1. 输入过滤器部署 防御代码示例 import re...