大模型长文本处理现重大缺陷:1万tokens成性能断崖点,准确率腰斩
2025-07-17

中
中国AI 50
强烈正面
查看报告
Chroma团队研究发现,当输入长度达到1万tokens时,包括GPT-4.1、Claude 4、Gemini 2.5和Qwen3在内的18款大模型在长文本处理任务中准确率普遍降至50%左右,且性能衰减存在断崖式下降节点。实验显示,语义关联性、干扰信息、文本结构等因素会加剧性能下降,不同模型对长文本处理的可靠性差异显著。该研究揭示了当前大模型在长上下文任务中的核心缺陷,可能影响其实际应用场景的稳定性。


本页面内容由AI提炼生成,无法确保完全真实准确,不代表希财网官方立场,不构成投资建议。如需阅读详细说明,请点击此处
