朱啸虎:AI应用明年肯定大爆发;第3款爆火AI游戏出现了;AI应用定价策略「不能说的秘密」;人类数据不够用了怎么办 | ShowMeAI日报

慈云数据 6个月前 (05-28) 技术支持 56 0

👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!

1. 换你来当爹:国内第3款爆火出圈的AI游戏应用,hhh 太搞笑了

周末的时候,社群里伙伴们开始玩一款「换你来当爹」的AI游戏 🎮

进入游戏界面后,输入名字,系统随机生成孩子的「出生设定」。

然后恭喜你!可以开始当爹了!!

好大儿的培养过程,伴随着各种糟心的意外,然后把难题摆在你面前。

哎呀呀!逆子…

这时,你可以在系统给定的两个选项中选择一个,当然也可以输入自己独特的「教育方式」,让好大儿深刻感受一把父爱。

好消息是,孩子终于长大一岁!

坏消息是,作死花样更多了 😡

孝顺值会随着互动过程增加或减少,达到 88% 可以让好大儿喊出那句「爸爸,您辛苦了!」但这真的很难!你玩一把就知道了~

围观的时候发现大家创意好多!给马云、马斯克、朱啸虎、坤坤当起了爸爸 hhh

而且!游戏的绘画和声音,给体验加分超多!!根据剧情实时生成的复古风海报,更是游戏的一大特色。

这应该是国内继《🎮 完蛋!我被LLM包围了!》《🎮 哄哄模拟器》之后,第三款有趣的AI游戏应用了!

👇 赶紧领取你的 AI 逆子,或者 🎮 点击进入当爹模式

2. 零一万物发布更新,开启「开源赋能生态+闭源探索商业化」双轨模型策略

5月13日,零一万物 ⋙ 发布官方公告,宣布了闭源大模型、开源大模型和 2C 产品方向的最近进展。

🔴 闭源模型

  • Yi-Large(千亿参数)表现出色,并已经启动下一代 Yi-XLarge MoE 模型训练(冲击 GPT-5)

    🟢 开源模型

    • Yi-1.5(34B、9B、6B三个版本),每个版本达到同尺寸中 SOTA 性能最佳,并提供 Yi-1.5-Chat 微调模型
    • Hugginf Face → https://huggingface.co/01-ai
    • 魔搭社区 → www.modelscope.cn/organization/01ai

      🟡 2C产品 - 万知

      • 使用方式 https://www.wanzhi.com / 微信小程序

        🟣 Yi API 平台

        • 网站 https://platform.lingyiwanwu.com

          🟤 官网

          • 国内版 https://www.lingyiwanwu.com

          • 国际版 https://01.AI

            李开复教授也一改往日的低调,接受了 ⋙ 晚点LatePost 专访,聊了聊他对零一万物几个热点议题 (创业年龄太大、套壳争议) 的回应,对未来的发展构想 (万亿美元的公司,AGI 时代的微软),以及对当下市场的认知。

            这篇采访里有着大量的「常识」,平静却有力量。这可能是他的阅历带来的独特气质。以及,他强调的,推理成本在显著降低。

            Some Highlights:

            • PMF 已经不能够完整地定义大模型的创业了,TC-PMF 更合适,也就是还要考虑技术 technology,还要考虑成本 cost,这是一个四维的 fit。每个公司都要找到自己的 TC-PMF。

            • 一个利好是,推理成本至少每年会降低十倍,这个过去两年已经发生,未来也会发生。

            • 我们最早上线的生产力产品的 ROI 已经可以做到 1 了,也就是我们从用户手中收到的订阅费,已经低于我们获取用户的成本加 GPU 的成本。今年应该会有一个亿的收入,有近千万用户。

            • 我们会把 0.6 当作 ROI 的基准线。烧 1 块钱可以回 6 毛钱时,就可以往前推进。一旦推到了 1 ,就表示增长还可以更激进。低于0.6 烧得越多,亏得越多,而且几乎不会有结果。

            • 有些友商投放了几千万美元,烧出了几百万 DAU,如果他们有信心让用户走了又能回来,那是他们自己的策划。我们认为做应用就是按部就班:一方面你要又狠又准,在正确的时刻出手,把握时间窗口;另一方面,当这个窗口还没来时,我们选择不过度烧钱,因为赔钱的速度是完全可以预测的。

            • 美国大厂的计算资源是我们的几十倍、一百倍。我们前段时间聊的一个博士最后决定去一个美国公司,因为对方答应给他 10000 张 GPU,我们谁都没有 10000 张 GPU。

              3. 不要低估 DeepSeek 这次更新!它是一轮巨变开启的前兆

              AI社区对 DeepSeek V2 这次更新,似乎反应平平?

              大概率是因为它的模型能力还不足够「惊艳」。

              但是!我们需要关注到一个离谱的事实:DeepSeek v2 在能力逼近第一梯队闭源模型的前提下,推理成本降到了1块钱per million token,只有 Llama 3 (70B) 的 1/7,GPT-4 Turbo 的 1/70。而且完全开源!!

              推理成本的急剧降低,将为整个大模型生态,带来巨大的变化:

              1. 推理成本下降的速度严重超出预期。在算力没有升级的情况下,过去一年的推理成本已经降低了2个数量级,明年部署 GB200 会再进一步大幅降低。这会催生当下还无法预测的架构创新、推理优化、系统升级、甚至推理集群计算架构方面的黑科技

                (而且可能是诞生在国内)。

              2. 短时间内,模型优化导致的算力节约,将大于需求撬动的算力增量。成本节约 - 应用爆发 - 需求增加 - 拉升算力需求…… 会导致一连串复杂的连锁反应。

              3. 有一点肯定,准备迎接应用爆发吧。

              4. 根据各方消息,OpenAI GPT-5 的架构创新以及对计算复杂度的优化,一点也不会比国内少。下一代模型除了能力提升,成本的降低(相对而言)很可能会超出大家的预期 ⋙ 阅读原文

              4. 朱啸虎:AI应用明年肯定大爆发,应用赚的钱是硬件/基础设施的10倍

              朱啸虎是金沙江创投主管合伙人,作为知名投资人,曾投出阿里、京东、美团、拼多多,当然也遗憾地错过了字节。

              4月份,⋙ 朱啸虎讲了一个中国现实主义AIGC故事 这次访谈在AI圈和投资圈引发热议。他毫不避讳地展示了对大模型投资圈无脑跟风的鄙夷,阐述了当下中国大模型初创公司的生存窘境,也给出了他对开闭源之争、中美差距、国内外大模型公司终局的确切判断,还有对应用层创业的无限热忱和确信。

              5月8日,在投中网举办的年度峰会上,朱啸虎再次表达了对「AI应用爆发」的确信。这与👆 上一条「推理成本降低 → 应用即将大爆发」的判断,可谓殊途同归 ⋙ 阅读原文

              1. 中国VC和美国VC很大差别似乎是美国VC过去几十年很明确,基本是十年一个周期,中国的VC过去20年都习惯短周期——每三年一个周期…(将来)中国的VC可能要习惯十年的长周期期限。

              2. 我们一直在关注AI的应用,且只关注能够商业化的、能够实现PMF的 AIGC 应用。而且,明年这个时间点上,AI应用肯定会大爆发。

              3. 每个周期一开始,都是硬件和基础设施赚的钱多一点,但到周期的后面就是应用。应用赚的钱是前面的10倍以上。

              4. 边缘端的开源小模型必然是未来方向,这里面商业机会特别多。

              5. Sam Altman在吹牛逼,GPT-5 肯定没那么惊艳,或者惊艳与否已经不重要了。GPT-4 已经满足了绝大部分的商业需求了。

              5. 我研究了40款AI热门应用:发现了它们「定价策略」里隐藏的智慧和心机

              这篇文章 ⋙ How AI apps make money 探讨的主题非常有意思——当下热门的AI原生应用,是怎么收钱的呢?具体来说就是,这些应用的「定价策略」是怎样的?什么模式更有利于让用户付费?未来还有可能诞生哪些新的模式?

              作者根据公开榜单、外部融资信息、公开信息等,审查了有关定价模式、价值指标、套餐、免费版本和定价透明度的公开数据。最终敲定了 40 款知名 的AI 应用,并梳理了它们的详细信息 ⋙ 中文翻译版本

              这 40 款产品覆盖了法律、健康、市场、生产力、销售、自动化、音视频、设计等领域。研究发现的 5 条明显规律:

              1. 定价模式的创新有限: 七成公司采用订阅模式,纯用量付费模式寥寥无几。

              2. 以用户数量为主要的计费指标: 这反映了 AI 应用作为「副驾驶」辅助人类工作的定位。

              3. 免费版本和试用期普遍存在: 超过一半的公司提供免费版本,另有五分之一提供免费试用,以促进用户早期采用。

              4. 「好-更好-最好」套餐模式: 这种模式为用户提供不同功能和服务级别的选择,并为企业创造清晰的升级路径。

              5. 定价透明度差异较大: 三分之二的公司公开定价,而企业级应用则更倾向于隐藏定价以保持竞争优势和灵活性。

              从中可以观察到,AI 应用定价模式的创新趋势

              • 以成果为导向的定价模式:客户只需为成功的结果付费,例如成功的交易结算、问题的解决、生成的文档等等。这将推动 AI 应用与客户建立双赢的合作伙伴关系,并加速产品的普及。

              • 探索新的计费指标: 用户量可能不适合继续作为计费指标。AI 应用需要探索新的计费指标,例如处理的数据量、生成的文本或代码量、节省的时间或成本等等。

                6. 各国AI 初创公司数量 · 全球排行榜:美国一骑绝尘,中英紧随其后

                ⋙ Voronoi 平台 基于斯坦福大学2024年AI指数报告中Quid的数据,分析出了过去 10 年间,全球AI创业最活跃的 15 个国家。

                注意!数据是2013年至2023年间,各国新获得资金支持的AI初创公司的数量。仅将获得超过150万美元私人投资的公司纳入考量。

                1. United States | 美国 5,509
                2. China | 中国 1,446
                3. United Kingdom | 英国 727
                4. Israel | 以色列 442
                5. Canada | 加拿大 397
                6. France | 法国 391
                7. India | 印度 338
                8. Japan | 日本 333
                9. Germany | 德国 319
                10. Singapore | 新加坡 193
                11. South Korea | 韩国 189
                12. Australia | 澳大利亚 147
                13. Switzerland | 瑞士 123
                14. Sweden | 瑞典 94
                15. Spain | 西班牙 94

                7. 训练大模型到底要用多少数据?人类数据还够用吗?

                根据公开信息,整理了 LlaMa 3 和 GPT-4 大模型训练集的大小。为了方便大家有个直观的感受,附上人类 5 岁和 20 岁时的习得的文本数量。

                Training Set (Words)Training Set (Tokens)相对大小 (Llama 3 = 1)
                Recent LLMs
                Llama 311 trillion15T1
                GPT-45 trillion6.5T0.5
                Humans
                Human, age 530 million40 million10^-6
                Human, age 20150 million200 million10^-5

                一直有消息说,目前的大模型训练,已经几乎耗尽了人类积累的高质量文本。更恐怖的是,训练下一代大模型需要的数据量是之前的 10 倍。

                数据会用完吗?没有数据了怎么办? 仔细盘了盘人类的数据「库存」! ⋙ 点击查看各部分数据的详细解释

                可以得出的基本结论是:高品质的、公开的数据规模是有上限的;私有数据流规模庞大,但在商业化应用方面有诸多限制;未来的大模型训练可能更多依赖于合成数据。

                WordsTokens相对大小(Llama 3 = 1)
                📀 网络数据
                优质网络数据11 trillion15T1
                高质量非英文网络数据13.5 trillion18T1
                📀 代码
                公共代码0.78T0.05
                私有代码20T1.3
                📀 学术出版物和专利
                学术文章800 billion1T0.07
                专利150 billion0.2T0.01
                📀 书籍
                Google Books3.6 trillion4.8T0.3
                Anna’s Archive (books)2.8 trillion3.9T0.25
                每本独特的书16 trillion21T1.4
                📀 社交媒体
                推特/X8 trillion11T0.7
                微博29 trillion38T2.5
                脸书105 trillion140T10
                📀 公开可用的音频 (转录)
                YouTube5.2 trillion7T0.5
                TikTok3.7 trillion4.9T0.3
                所有播客560 billion0.75T0.05
                电视档案50 billion0.07T10^-3
                广播档案500 billion0.6T0.04
                📀 私人数据
                所有存储的即时消息500 trillion650T45
                所有存储的电子邮件900 trillion1200T80
                📀 总人类通信
                每日总人类通信115 trillion150T10
                1800年以来的总人类通信3 million trillion4000000T10^5
                有史以来的总人类通信6 million trillion8000000T10^5

                ◉ 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!

                ◉ > 前往 🎡ShowMeAI,获取结构化成长路径和全套资料库,用知识加速每一次技术进步!

微信扫一扫加客服

微信扫一扫加客服

点击启动AI问答
Draggable Icon