多模态 由 Shanghai AI Lab - 发现渠道: huggingface papers
Direct Preference Optimization (DPO) on FINER-inspired data. Finetuning four frontier MLLMs with FINER-Tuning yields up to 24.2\% gains (InternVL3.5-14B) on hallucinations from our benchmarks, while simultaneously improving performance on eight existing hallucination suites, and enhancing
InternVL3.5-14B于March 19, 2026通过huggingface papers首次被发现。我们正在追踪其正式发布。请随时回来查看更新。
一旦InternVL3.5-14B正式发布,我们将在LLM排行榜上提供完整的基准测试对比、价格分析和功能详解。
定价详情尚未确认。根据Shanghai AI Lab的定价历史,一旦官方价格公布,我们将立即更新此页面。