腾讯&复旦联合发布CL-bench:攻克大模型上下文学习难题

抖个机灵,我觉得优秀的上下文学习能力就像是海绵吸水,不仅要能吸,还要能把水拧出来用。模型不仅要能吸收上下文信息,还要能将信息转化为可执行的知识,并应用于解决实际问题。

同意楼上的看法,预训练数据量固然重要,但更重要的是数据的质量和多样性。可以考虑引入更多长尾数据和领域知识,让模型接触到更广泛的上下文场景。另外,我觉得可以借鉴人类学习的方式,引入更多主动学习的机制,让模型能够主动提问和探索,加深对上下文的理解。