标签:Transformers

共 6 篇文章

AI大模型微调技术预研:基于Transformers框架的BERT模型个性化训练与部署实践

引言:AI大模型时代的微调范式演进 随着人工智能技术的迅猛发展,以BERT、GPT系列为代表的大型预训练语言模型(Large Language Models, LLMs)已成为自然语言处理(NLP)领域的核心基础设施。这些模型在海量文本数据上进行自监督学习,具备强大的语义理解与生

晨曦吻
晨曦吻 2025-10-01T08:32:51+08:00
0 0 0
AI大模型微调技术预研:基于Transformers框架的LLM模型定制化训练实战,探索企业级AI应用落地路径

引言:从通用到专用——大模型在企业场景中的价值跃迁 随着人工智能技术的迅猛发展,以GPT、Llama、Bloom等为代表的大型语言模型(Large Language Models, LLMs)已成为推动自然语言处理(NLP)领域进步的核心驱动力。这些模型凭借其庞大的参数规模和强大

风华绝代1
风华绝代1 2025-10-07T17:17:40+08:00
0 0 4
AI大模型微调技术预研:基于Transformers框架的LoRA参数高效微调与模型压缩优化

引言:大模型时代的微调挑战与机遇 随着人工智能技术的飞速发展,以BERT、T5、LLaMA、ChatGLM等为代表的大型语言模型(Large Language Models, LLMs)在自然语言处理(NLP)、计算机视觉、语音识别等多个领域展现出前所未有的性能。然而,这些模型通

风吹麦浪
风吹麦浪 2025-11-14T21:39:06+08:00
0 0 2