
Machine Pro的心脏·沟通成员第25周---本周解释了AI机器人行业值得享受的重要事物--- 1。在统计的可能性下,推理真的是“了解世界”吗?与明确的路径相比,仅重复,在小屋婴儿床中扮演什么样的角色?下一个令牌预测是一个动态的建模过程,也许COT并不是一个简单的重复? LLM推理能力是基于简单地匹配模式的可能性的统计数据,还是理解原因的另一种表达? “培训使真正的知识”,是否有可能加强培训以打破“知识知识”,以表明LLM? ... 2。是2025年,两家公司如何将预算用于获得AI? Nadaragbusinesses耗尽生成人工智能的原因是什么?在生产使用情况下使用许多模型的动机是什么?为什么AI的收购逐渐显示传统的软件采集道具Erties?为什么要从建造自己到购买第三方AI应用程序?选择AI模型时,大纲审查中包括哪些主要因素? ...新闻通讯的完整版本包含2个特殊主题解释 + 31个关键AI机器人曲目事件,包括12个技术方面,8个国内方面和11个外国方面。这个问题的沟通总共有22632个单词,可以以7%的方式免费阅读,并消耗99个微信的豆类以换取对这个问题的完全解释(大约是RMB 9.9)对重要对象的解释①在可能性的机制下,可能性是“理解世界”吗?简介:6月初,很长一段时间没有出现的苹果(Apple)发表了一篇论文,说当前的推理模型没有真实的思想,所谓的推理是“匹配模式”的另一种形式。这项研究再次为行业中有关LLM的激烈讨论做出了贡献推理能力。苹果的观点以前得到了支持,但是一些研究人员认为,下一个令牌预测实际上是一个动态的建模过程,一些COTS也显然激励着理解道路。在最近的采访中,里德·霍夫曼(Reid Hoffman)从“知识知识”的角度提出了不同的观点,提醒人们重新理解LLM推理方法。当前,推理LLM显示的只是一种匹配模式吗? 1。当前对AI在学术和行业推理的经典定义可以用作:推理是一个计算过程,在该过程中,AI系统通过基于现有知识或模型的逻辑推导,符号操作或统计关联来构成新的结论。 [1-1] 2。研究科学家卢西安·盖尔斯库(Lucian Galescu),佛罗里达人类和机器认知研究所(IHMC),于10月24日被教导说,推理意味着“从地点或证据中正确得出结论”,如果推理步骤正确,则,结论更有可能。显然,他认为当前的主要大型模型(LLM)尚未实际上具有严格的推理论点[1-2] 3。提出2011年图灵奖奖得主珍珠理论的经典原因,不仅仅是从数据中找到模式,而是要了解“如果……然后……”,这是一个理解“如果……”的原因,这使它成为了prophec的理由,并解释了一个决定的基础,并解释了一个决策。 [1-3]①人工智能领域通常认为,真正的智能推理应包括理解原因的能力。 ②推理的原因还涉及理解变量与反事实理解之间的干预措施,这些干预措施是该规定的复杂能力,而无需涵盖统计推理。 LLM尚未建立一个因果关系框架,因此很难像人类一样具有推理的深度和灵活性。 [1-3]③在“通讯”文章中Nsense Kakatuwiran和LLMS”于2023年出版,圣塔菲研究所的教授梅兰妮·米切尔(Melanie Mitchell)指出,即使GPT-4可以重述类比的类比,它也没有像孩子一样发展一种感应技能,证明了模型的形式,而不是理解结构。也就是说,推理是一种基于心理模型的认知活动,也就是说,人们通过建立内部心理表征来进行逻辑降低或归纳,也就是说,他在今年4月底进行了视频访谈,他认识到人类认识更接近匹配的模式,而不是gother gother的想法,而不是gother gother of Gother the Imploctive and Imploins of Enclions of Selon Sevial Sevile Sevile willy wisher ovel of seely ovel of a 1--7-7] [1-8] [1-8] [1-8]。认知人不是来自严格的推理,而是一种模糊的智力形式,即更接近匹配模式而不是解决问题。 ③他强调,当人们做出决定,解决问题甚至形成记忆时,它们不是通过严格的逻辑树,而是通过过去经验的共鸣。同时,人们已经提出了有关熟悉事务的新信息,并且更喜欢类似的推理。 ④同时,Hinton认为,LLM提出的适当模型的当前模型已达到准认知水平。 ⑤当NLLM 24具有通过零测试条件下的类似推理来解决新问题时,也提前发现了来自UCLA的Webb等研究人员。类似于GPT-3和GPT-4的模型在抽象模式诱导中表现良好,在大多数情况下,与人类能力相匹配甚至超出了人类的能力。 [1-9]在接下来的标记预测中是动态建模过程。也许婴儿床不是一个简单的“重复”? 1。这是什么样的推理,如何使用模型的推理一直是研究工作的重点。因此,一些研究人员建议思考链是主要的推理。