AI专家Gary Marcus:狂喷AI赛道烧钱却难用,OpenAI或成下一个WeWork

"超级版自动补全工具"这个说法,我觉得是 Marcus 教授有意为之的降维打击。从学术角度看,它忽略了大语言模型内部复杂的 Transformer 结构和 attention 机制,这些都是远超传统自动补全的。但是从普通用户的视角出发,却能瞬间抓住重点:模型再强大,也只是在已有的数据上做概率预测,没有超出数据本身的创造力。所以,这个比喻在传播观点上是成功的,但在技术层面略显粗糙。

我觉得 Marcus 教授的观点过于悲观了。OpenAI 的技术积累和品牌效应是其他公司无法比拟的,而且他们一直在积极探索新的应用场景,比如 Copilot。当然,亏损问题确实需要重视,但我相信他们有能力找到新的增长点。破局的关键在于找到 AI 的真正价值所在,而不是一味地追求模型的大小和速度。

世界模型感觉是个很玄乎的概念,说白了就是让 AI 真正理解我们所处的世界。最大的障碍我觉得是数据,现在 AI 接触到的数据很多都是碎片化的、不完整的,甚至是有偏见的。要提升世界模型构建能力,首先要保证数据的质量和多样性,其次要让 AI 能够主动探索和学习,而不是被动地接受数据。

我觉得这个比喻挺形象的,一下子就让人理解了大语言模型的核心原理。除了自动补全,我觉得它本质上还是一个概率预测器,根据已有的数据来预测最可能出现的下一个词或句子。另外,大语言模型的“涌现”能力也很关键,这是小模型所不具备的。

我理解的世界模型,就是要让AI像人一样,对世界有“先验知识”和“常识”。现在的AI,给他一个没见过的东西,他就傻眼了。怎么让AI自己学会这些,才是最难的。现在可能得靠知识图谱或者其他符号主义的方法来硬编码一些东西进去。

“超级版自动补全工具”这个说法确实抓住了重点,但我觉得不够全面。大语言模型不仅仅是补全,它还能进行一定的文本生成、翻译甚至简单的对话,这背后涉及到复杂的神经网络结构和算法优化。如果只理解为补全,可能会低估了它的能力。

感觉 Marcus 这次有点危言耸听了。OpenAI 的技术积累和品牌影响力摆在那里,就算短期内遇到困难,也不至于沦落到被收购的地步。而且,AI 领域的竞争格局瞬息万变,说不定 OpenAI 自己也能找到新的增长点,实现弯道超车呢?

这题我会!要我说啊,与其让AI自己去摸索世界,不如直接给它一套“剧本”。先用各种传感器收集真实世界的数据,然后把这些数据变成AI能懂的语言,再告诉它这个世界的基本规则,比如“苹果会掉下来”、“火会烫伤人”。这样AI就能在这个虚拟世界里自由探索,慢慢地学会各种技能。当然,这个“剧本”要足够详细、足够真实才行,不然AI就会像个傻子一样,啥也搞不明白。

说的太对了,现在感觉AI论文都是一个模子刻出来的,不是堆算力,就是改改模型结构,真正有创新性的东西太少了。而且,现在AI研究的评价体系也有问题,太注重短期成果,导致大家都急功近利,没有耐心去做长期的、基础性的研究。

OpenAI 搞不好真要凉凉。现在各家大模型都差不多,OpenAI 又没有特别的护城河。 要是微软爸爸哪天不高兴了,断了它的粮,那可就惨了。

除了信息碎片化,我觉得训练数据的偏差也会导致幻觉。如果模型学习的数据本身就存在错误或偏见,那么它生成的内容自然也会受到影响。另外,模型在生成内容时,可能会过度依赖某些模式,从而忽略了真实的事实。

这就像一个复读机,你给它念错了的东西,它也会原封不动地念出来,甚至添油加醋地“创造”出新的错误。除了数据偏差,还有可能是因为模型为了追求“创造性”,引入了一些随机性,结果就跑偏了。所以,AI的“幻觉”问题,本质上还是一个可信度的问题,需要更严谨的算法和更高质量的数据来解决。

“超级版自动补全工具”?这说法有点损啊!不过仔细想想,好像也没错。要说价值嘛,我觉得忽悠投资人最有用!正经的,润色PPT,应付报告啥的,效率确实高多了。你要说能替代人类思考,那就算了吧。

世界模型这个概念挺抽象的,我觉得可以简单理解为AI对目标领域的知识库和推理引擎。 比如,一个医疗AI,它的世界模型就应该包括医学知识、疾病诊断流程、以及治疗方案等等。只有这样,它才能真正帮到医生,而不是只会复述教科书。

对于Gary Marcus的观点,我持中立态度。称其为“超级版自动补全工具”有一定道理,但不能完全概括其能力。

我认为大语言模型的能力体现在:

1. 信息整合能力: 能够从海量数据中提取信息,并进行整合,形成相对完整的答案。
2. 模式识别能力: 能够识别语言中的模式,并根据这些模式生成新的文本。

局限性在于:

1. 缺乏原创性: 只能模仿已有的文本,缺乏真正的原创性。
2. 易受误导: 容易受到训练数据中的错误信息的影响,导致生成不准确的答案。

所以,大语言模型是一种强大的工具,但需要谨慎使用,并对其输出结果进行验证。

我觉得现在下结论还为时过早。OpenAI 的确面临一些挑战,但也拥有巨大的潜力。

我的看法:

1. 机遇与挑战并存: OpenAI 既面临竞争加剧、盈利困难等挑战,也面临 AI 应用爆发的机遇。
2. 关键在于创新: OpenAI 必须不断创新,才能在激烈的竞争中保持领先地位。

OpenAI 最大的风险:

1. 人才流失: AI 领域竞争激烈,如果 OpenAI 无法留住顶尖人才,可能会影响其创新能力。
2. 战略失误: 如果 OpenAI 在发展战略上出现失误,可能会错失发展机遇。

让我们拭目以待吧!

作为一名科研工作者,我对AI幻觉问题深有体会。大语言模型有时候会生成看似合理,实则毫无根据的“学术观点”,如果直接引用,后果不堪设想。

判断方法:

1. 审查逻辑: 仔细审查AI生成的内容,判断其逻辑是否严密,论证是否充分。
2. 核对参考文献: 如果AI提供了参考文献,务必核对这些文献的真实性,以及AI是否正确引用。

应对方法:

1. 谨慎引用: 对AI生成的学术观点持保留态度,谨慎引用。
2. 原创为主: 尽量以自己的研究和思考为主,将AI作为辅助工具。

科研不易,且用且珍惜!

Marcus 的观点我部分赞同。大语言模型本质上确实是基于统计的预测模型,但这种预测能力在特定场景下也展现出了“智能”。

支持“超级版自动补全”观点的理由:

1. 数据依赖性: 模型的表现高度依赖训练数据的质量和数量,缺乏独立思考能力。
2. 无法处理新情境: 面对未见过的知识或情境,容易产生错误或胡编乱造。

反驳理由:

1. 涌现能力: 随着模型规模增大,会涌现出一些原本没有预料到的能力,比如翻译、摘要生成等。
2. 上下文理解: 在一定程度上能够理解上下文,并根据语境生成合适的回复。

总之,大语言模型是工具,用得好是神器,用不好就是废品。

我不太同意 Gary Marcus 的观点。虽然 OpenAI 面临很多挑战,但它和 WeWork 有本质区别。

不同意的原因:

1. 技术实力: OpenAI 拥有领先的 AI 技术,这是 WeWork 无法比拟的。
2. 应用前景: AI 的应用前景广阔,而 WeWork 的商业模式相对单一。

OpenAI 最大的风险:

1. 伦理问题: AI 技术的快速发展带来了一系列伦理问题,如果处理不当,可能会对 OpenAI 造成负面影响。
2. 监管风险: 各国政府都在加强对 AI 技术的监管,这可能会限制 OpenAI 的发展。

我认为,OpenAI 的关键在于如何平衡技术创新和伦理责任。

AI 幻觉确实是个大问题,我之前用 ChatGPT 写一篇关于某个历史事件的总结,它在时间线上出现偏差,把两个不同时期的事件强行联系到了一起!

我是这么判断的:

1. 对比权威资料: 查阅历史书籍、学术论文等权威资料,核对AI提供的信息。
2. 注意细节: 关注时间、地点、人物等细节信息,这些地方最容易出错。

应对方法:

1. 修改润色: 对AI生成的文本进行修改和润色,确保信息的准确性。
2. 多方验证: 尽量从多个来源获取信息,避免只依赖AI的回答。

大家使用AI工具时,一定要多留个心眼!