英伟达开源 3400 亿巨兽,98%合成数据训出最强开源通用模型!性能对标 GPT-4o
英伟达发布开源模型 Nemotron-4 340B,可能彻底改变 LLM 训练方式。该模型使用合成数据,性能超越 Mixtral 8x22B、Claude sonnet、Llama3 70B、Qwen 2,可与 GPT-4 竞争。模型包含基础、指令和奖励三部分,支持 4K 上下文窗口、50 多种语言和 40 多种编程语言。指令模型 98%使用合成数据训练。在常识推理任务中表现强劲,在 RewardBench 准确性上超过 GPT-4o-0513 和 Gemini 1.5 Pro-0514。模型对商业友好,可使用 NVIDIA NeMo 和 TensorRT-LLM 进行微调。其潜在影响广泛,涉及医疗、金融等领域,但也引发数据隐私和伦理问题。