标签:微调

共 3 篇文章

AI大模型微调技术预研:基于Transformers框架的LLM模型定制化训练实战,探索企业级AI应用落地路径

AI大模型微调技术预研:基于Transformers框架的LLM模型定制化训练实战,探索企业级AI应用落地路径 引言:从通用到专用——大模型在企业场景中的价值跃迁 随着人工智能技术的迅猛发展,以GPT、Llama、Bloom等为代表的大型语言模型(Large Language M

D
dashen2 2025-10-07T17:17:40+08:00
0 0 135
AI大模型微调技术预研报告:LoRA、Adapter、Prefix Tuning三种主流方法对比分析与性能评估

AI大模型微调技术预研报告:LoRA、Adapter、Prefix Tuning三种主流方法对比分析与性能评估 引言 随着大型语言模型(LLMs)在自然语言处理(NLP)、计算机视觉(CV)等领域的广泛应用,如何高效地将这些通用模型适配到特定任务或领域成为研究和工业界的核心挑战。

D
dashen19 2025-11-09T11:46:02+08:00
0 0 275
AI大模型微调技术预研:ChatGPT/BERT模型参数优化与领域适应实战,打造专属智能助手

AI大模型微调技术预研:ChatGPT/BERT模型参数优化与领域适应实战,打造专属智能助手 引言:大模型时代的个性化需求 随着人工智能技术的飞速发展,以 ChatGPT、BERT 等为代表的大型语言模型(Large Language Models, LLMs)在自然语言处理(N

D
dashi35 2025-11-28T22:42:14+08:00
0 0 15