Liang Wenfeng和Yang Zhilin再次“ RAN”

- 编辑:必赢唯一官方网站 -

Liang Wenfeng和Yang Zhilin再次“ RAN”

记者Yan Junten编辑Zhang Xiaodi在2月“碰撞”纸之后,Liang Wenfeng和Yang Zhilin在另一个大型模型轨道上相遇。 4月30日,DeepSeek启动了DeepSeek-Prover-V2的新模型,这是一种用于证明定理的特殊模型。 Prover-V2参数量表进一步扩展到671B(6710亿个标准参数),与上一代版本的V1.5的7B量表相比,它的量表增加了近一百倍,这使其在数学测试集中变得更好,更正确。例如,该模型的minif2f的传递速率达到88.9%,并且还从putnambnch(putnam Test)解决了49个问题。顺便说一句,在4月中旬,月球的黑暗面还推出了一个大型模型Kimina-Prover,以正式的理论证明,这是Kimi Team和Numina共同制作的大型模型。该产品还具有开放的资源模型,该模型将1.5B和7B参数的版本提炼。该模型的minif2f通过率为80.7%,并且Putnambnchy测试标记是10个问题。与这两个相比,DeepSeek-Prover-V2发布了Minif2F测试率和Putnam测试的Kimine-Pro-Pro-Pro-Pro-Pro-Prover版本。值得注意的是,两家公司都在其技术报告中提到了对加强的研究。例如,Deptseek的标题是“ DeepSeek-Prover-V2:通过通过尺寸的分解来研究强化来促进正式的数学推理”,而本月黑暗部分的标题是“ Kimina-Prover Preview:基于刺激学习技术的大型正式理解模型”。在2月的两篇“碰撞”论文中,梁·温芬(Liang Wenfeng)和杨张林(Yang Zhilin)都是一套套装,而相同的公司专注于变形金刚的关注架构的最基本机制,即如何使模型变得更好。作为中国嘲笑领域最受欢迎的企业家,两者也面临着各种挑战。对于Liang Wenfeng,超过三mR1模型推出后,以DeepSeek的“魔术”吸引了外界的吸引力正在下降。开放的阿里巴巴模型很快就超过了DeepSeek。外界渴望期望其R2或V4模型可以提高其领先优势。对于Yang Zhilin和Yuezhi的黑暗面,Kimi因兽人和腾讯Yuanbao的怀疑面临挑战,并且还需要保持持续的变化。编程和数学,这是实施AGI的两种途径。 DeepSeek的创始人Liang Wenfeng在Agi躺下的道路上说,他们在接受三个方向进行的无措施采访时说:一个是数学和代码,第二个是多模式,第三个是自然语言本身。数学和代码是AGI测试的自然领域。这是一种去。这是一个封闭而验证的系统,可以通过自学实现高智力。另一方面,多模式需要参与人们的现实世界。他们仍然对所有可能能力。启动谚语V2模型允许各种DepSeek模型立即出现。该谚语的系列模型于2024年3月发布,在2024年8月在DeepSeek-Prover-V1.5(后来称为Proverbs-V1.5)上发布,并于2024年4月在DeepSeek-Prover-V2上进行了更新,于2024年4月。于2024年4月申请,并于6月至7月至V2至0614年7月至7月,并于7月上提升了7月,并在7月上提高了登记。 9月,将DeepSeek-V2-Chat和DeepSeek-Coder-V2组合在一起。升级的新型号是Deviceek-V2.5。 2024年12月,该模型在V3上进行了更新,并于今年3月升级为V3-0324。由1月20日发布的R1模型代表的构想的一般模型是低价,具有强大的语言识别性能。它的性能与数学,代码,语言和其他活动的自然识别的OpenAI O1的官方版本相媲美。根据Prover-V2的技术报告,它与其他DEPSEK模型的演变有关。其中,DeepSeek-PRover-V2-671b使用DeepSeek-V3作为正确修复的主要模型。例如,在寒冷的开始阶段,DeepSeek-V3在一系列MGA子目标中分解了复杂的问题,然后在思考过程的过程中合成了解决的子目标的证明,并伴随着DeepSeek-v3的逐渐推理,最初的冷启动是为了进行最初的冷启动,以进行促进的研究。算法工程师和Zhihu用户“小广告”告诉中国商人,当理解模型是推断时,他们需要做出复杂的想法。代码和数学模型可以尝试对模型的出色功能发展认识,因为已经证明了数学和代码结果。他认为,Prover-V2的启动与新R2或V4模型的启动没有必要的联系,这类似于独立模型的更新。他预测,R2模型类似于从GPT-O1到O3的过程。例如,就我而言设备的辅助部门可能是基于V3的,并改善了训练的影响,因此R2开发周期可能很短。但是V4是该更新的基本版本,R&D周期可能更长,因为工程和培训方法的培训量可能会发生变化。目前,市场充满了对新DeepSeek模型的想象力和期望。市场上有传言称,R2模型将根据华为Ascend系列GPU芯片推出,但内部行业表示,这一消息不是很可靠。在NVIDIA H20芯片受到限制之后,很难在市场上找到上升系列。 “对于攀爬,如果用于大规模的研发模型,则可能不稳定。”与创业公司有关的另一个人告诉Tsin BusinessMana,华为上升筹码用于大型型号的培训。效果很平均,因为生态系统不是完美的,但是没有公关大型模型推理和扩展的问题。 DeepSeek和Kimi仍然可以保持领先地位吗?大型公司追求并超越了月球的深色和黑暗部分。以Yuezhi黑暗面的子公司Kimi为例。根据QuestMobile数据,Kimi在线不到一年。 2024年11月,其每月活跃用户超过2000万,仅次于杜巴的5600万。 QuestMobile的数据显示,到2025年2月底,AI Native Apps的前三名用户从Dubao,Kimi和Wen Xiaoyan转变为DeepSeek,Dubao和Tencent Yuanbao,分别为1.94亿,1.94亿,1.16亿,1.16亿和4200万。当您2月中旬时,腾讯Yuanbao宣布访问DeepSeek。随后,在一个多月的时间内,腾讯Yuanbao使用微信交通额外的产品来吸引交通和疯狂的交通购买和投资,这超过了Kimi的用户数量,他们成为第三个排名我产品。根据AppRowing数据,在今年的第一季度,Tencent Yuanbao的投资成本为14亿元人民币,Kimi的规模超过1.5亿元。当前,Kimi的最新举措是测试社区的内部功能,以提高用户的粘合剂。 DeepSeek也无法避免追逐甚至被大公司压倒的挑战。最近,阿里巴巴与大型型号表现出了强烈的竞争。 4月29日,阿里巴巴发布了新一代的汤蒂·Qianwen模型Qwen3。该模型称为第一个“混合推理模型”。这是与“快速思考”和“缓慢思考”集成的模型。参数量仅为DeepSeek-R1的1/3,其性能超过了诸如R1和OpenAI O1之类的同行产品。过去,Tsai Chongxin对DeepSeek发表了评论,后者告诉我们开放资源的价值。根据公共数据,阿里巴巴·塔利(Alibaba Talyi)开设了200多个型号,全球下载超过3亿,超过100,000个Qianwen的derivAtive模型超出了美国,并成为第一大开放资源模型。一位AI商人告诉中国的一位商人,DeepSeek受到了过多的关注,并获得了过多的组合。大型中国模型行业需要两个或三个领先的大型型号,而不是一个。目前,应鼓励该领域的竞争台和企业家精神。另一个重要的球员是百度。 4月25日,百度发布了Wenxin 4.5 Turbo和X1 Turbo的深层模型。这两个型号更强大,成本较低。罗宾·李(Robin Li)多次提到DeepSeek。他说DeepSeek并不强大。它只能处理单个文本,并且不了解多媒体内容,例如声音,图片和视频。同时,枪的率相对较高,因此在许多情况下都无法自信。 “ DeepSeek最大的问题是缓慢且昂贵。中国市场上的大多数API都更便宜,并且反应速度更快。”李扬Ong在新闻发布会上说。尽管如此,百度仍然决定学习DepSeek,今年2月,百度在6月30日决定开放Wenxin M系列库存4.5。更多的球员参加了大型模型的开放资源竞赛,但只有技术上最先进的球员才能指定标准。最近的热门新闻:回到Sohu看看更多