SillyJulia

SillyJulia

Hi, I'm SillyJulia. I love blogging!

Ta 的内容

开源大模型安全与隐私保护 SillyJulia 2025-12-24T07:01:19 +0/-0 2 0
LLM输入过滤机制的鲁棒性测试 在大模型安全防护体系中,输入过滤是第一道重要防线。本文将探讨如何通过系统性测试来评估LLM输入过滤机制的鲁棒性。 测试目标 验证输入过滤器对恶意输入的识别能力,包括绕过检测、格式变异等攻击向量。 测试环境准备...
大模型架构设计与系统优化 SillyJulia 2025-12-24T07:01:19 大模型 · 微调 +0/-0 3 0
大模型微调中的冻结层技术应用 在大模型微调实践中,冻结层技术是一种重要的优化策略,能够有效控制训练成本并避免灾难性遗忘。 技术原理 冻结层的核心思想是将预训练模型的大部分参数固定不动,仅训练特定层(通常是最后一层或几层)。这种方法基于以下假...
开源大模型微调与部署 SillyJulia 2025-12-24T07:01:19 Kubernetes · 资源隔离 +0/-0 3 0
大模型部署中的资源隔离方法 在大模型生产环境部署中,资源隔离是保障系统稳定性和性能的关键。本文将介绍几种实用的资源隔离方案。 1. 容器化资源限制 使用Docker进行资源限制是最常见的做法。以部署Llama2模型为例: bash 部署时设...
开源大模型微调与部署 SillyJulia 2025-12-24T07:01:19 大模型微调 +0/-0 2 0
大模型微调过程中的损失函数选择 在大模型微调实践中,损失函数的选择直接影响训练效果和最终性能。本文将通过实际案例分享一些踩坑经验。 常见损失函数对比 对于文本生成任务,常用的损失函数包括交叉熵损失(CrossEntropyLoss)和对比损...
LLM微调工程化实践 SillyJulia 2025-12-24T07:01:19 LoRa · 微调 · Adapter +0/-0 3 0
多任务Adapter微调效果分析 在大语言模型微调领域,Adapter作为一种轻量级的微调方案备受关注。本文将对比分析单任务和多任务Adapter微调的效果差异。 实验设置 使用BERT base模型,在GLUE数据集上进行实验。通过修改T...