搜索优化
English
搜索
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
房地产
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
时间不限
过去 1 小时
过去 24 小时
过去 7 天
过去 30 天
按时间排序
按相关度排序
腾讯网
7 天
LLM后训练绝招:1%预训练成本,实现最高20倍算力扩展效果
:我们提出了计算等效增益这一概念,用于量化各类增强方法带来的性能提升。CEG被定义为在不采用增强的情况下,预训练计算量需要增加多少才能达到与增强方法相同的基准性能提升。我们开发了一种基于公开基准进行评估的估算方法,以此来计算CEG。
13 天
神级项目训练GPT-2仅需5分钟,Andrej Karpathy都点赞
今年 4 月,AI 领域大牛 Karpathy 一个仅用 1000 行代码即可在 CPU/fp32 上实现 GPT-2 训练的项目「llm.c」曾经引发机器学习社区的热烈讨论。 llm.c 旨在大幅简化大模型的训练,ta 使用纯 C 语言 / ...
36氪
23 天
从LLM大模型到SLM小模型再到TinyML,这个领域有望增长31倍并催生新的 ...
此外,SLM通常是面向特定任务、应用或用例量身定制的。 至于云端,大型语言模型(LLM)无疑是其中的佼佼者。LLM是一种强大的深度学习算法 ...
新浪网
24 天
「压缩即智能」,成就LLM的Transformer 未必是终极解?
LLM是否能验证知识压缩理论 ... 许多声音指出 Scaline Law 的范式正在从 Training-Time 转向 Inference-Time。 6、北大对齐团队撰文解读了o1在技术上的细节 ...
腾讯网
1 个月
清华、加州理工提出强化自训练方法ReST-MCTS*,让大模型持续升级
大语言模型(LLM)的自训练(self-training),是验证 Scaling Law 能否继续奏效的关键方法之一。 然而,由于 「错误或无用的中间奖励信号」 ,现有自 ...
51CTO
1 个月
2024年大模型LLM还有哪些可研究的方向?听听大佬怎么说
纯属brainstorm,欢迎大家一起探讨。想到哪里说到哪里,有遗漏的点欢迎大家在评论区中指出。 个人认为现在LLM能做的点还 ...
GitHub
3 个月
README_zh.md
快来试试吧! 2024年5月13日: 🍺🍺🍺 我们发布了量化基准论文: LLM-QBench: A Benchmark Towards the Best Practice for Post-training Quantization of Large Language Models。 Ruihao Gong*, Yang Yong*, Shiqiao Gu*, Yushi Huang*, ...
GitHub
10 个月
Tips: 图片完全由AI生成
LLM-Dojo使用简洁且易阅读的代码构建模型训练、RLHF框架等各种功能,使项目易于学习且方便魔改与实验,与大多开源框架相同均是基于huggingface。 主要内容如下: SFT训练框架: 简洁清晰的开源大模型训练框架,支持Deepspeed多卡、Lora、QLora、全参等训练,自动适配 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈