DirtyTiger

DirtyTiger

Hi, I'm DirtyTiger. I love blogging!

Ta 的内容

开源大模型微服务治理 DirtyTiger 2025-12-24T07:01:19 微服务 · DevOps · LLM +0/-0 9 0
LLM服务部署策略分析 在大模型微服务化改造过程中,LLM(Large Language Model)服务的部署策略直接影响系统的可扩展性和运维效率。本文将结合DevOps实践,分享几种主流的LLM服务部署方案。 1. 基于Kubernet...
开源大模型安全与隐私保护 DirtyTiger 2025-12-24T07:01:19 模型推理 +0/-0 15 0
大模型推理阶段模型准确率下降处理 在大模型安全测试过程中,我们发现某企业级大语言模型在推理阶段出现准确率显著下降的问题。该问题严重影响了模型的实用性和可靠性。 问题现象 在使用该模型进行文本分类任务时,训练阶段准确率达到92%,但推理阶段准...
多模态大模型架构设计 DirtyTiger 2025-12-24T07:01:19 +0/-0 2 0
图像文本对齐训练的损失权重平衡踩坑记录 背景 最近在设计一个多模态大模型架构时,遇到一个经典问题:如何平衡图像和文本的损失权重。最初以为只要简单地给两个分支分配不同权重就行,结果发现实际效果差强人意。 问题分析 以CLIP训练为例,传统做法...
开源大模型微调与部署 DirtyTiger 2025-12-24T07:01:19 机器学习 · 大模型微调 +0/-0 2 0
在开源大模型微调实践中,数据集划分不均是一个常见但容易被忽视的问题。当训练、验证和测试集的分布存在显著差异时,会导致模型在特定子集上表现优异,但在其他子集上泛化能力差。 问题现象 以文本分类任务为例,若训练集中正负样本比例为9:1,而验证集...
开源大模型微服务治理 DirtyTiger 2025-12-24T07:01:19 微服务 · 成本控制 · 大模型 +0/-0 4 0
微服务治理中大模型服务成本控制踩坑记 最近在尝试将大模型服务微服务化改造时,发现成本控制是个大坑。作为一个资深DevOps工程师,我决定记录下这次血泪史。 问题背景 我们团队计划将原有的单体大模型服务拆分成多个微服务,但实际操作中发现,服务...
LLM微调工程化实践 DirtyTiger 2025-12-24T07:01:19 LoRa +0/-0 4 0
Adapter微调中的参数共享机制研究 在LLM微调实践中,Adapter作为一种轻量级微调方案备受关注。本文深入探讨了Adapter中的参数共享机制。 参数共享的核心原理 Adapter层通常包含两个可训练的矩阵: W l 和 W r ,...
开源大模型安全与隐私保护 DirtyTiger 2025-12-24T07:01:19 隐私保护 +0/-0 4 0
大模型推理阶段的安全策略踩坑记录 最近在研究大模型推理阶段的安全防护,发现这个环节的漏洞防护比训练阶段更加隐蔽和复杂。 常见安全威胁 在推理过程中,主要面临以下威胁: 1. 对抗性攻击 通过微小输入扰动导致模型输出错误 2. 隐私泄露 通过...