
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
2024年10月,AI编程助手Bolt.new悄然上线,仅5个月年收入达4000万美元,注册用户超300万,月活超100万。其母公司StackBlitz曾因技术无应用场景濒临倒闭,后全力投入Bolt.new开发,凭借自然语言生成完整应用的功能迅速崛起。产品面向零基础用户,简化开发环境搭建,背后依托Anthropic的Claude模型。2025年初,Bolt.new完成1.055亿美元B轮融资,估值猛增。尽管面临大厂和友商竞争,其‘让复杂变简单’的定位使其成为增长最快的软件产品之一。
原文链接
7月15日,月之暗面回应Kimi K2模型API速度慢问题,称主要原因是访问量大和模型体积大,目前正全力优化推理效率并增加硬件资源,预计几天内速度将明显提升。Kimi K2模型于7月11日正式发布,支持最长128K上下文,具备更强通用性与工具调用能力,API服务已全面上线。计费方案为每百万输入tokens 4元、每百万输出tokens 16元。此外,Kimi K2完全开源,用户可通过其他供应商接入或自行部署。
原文链接
7月15日晚间,月之暗面发布公告回应Kimi K2模型API速度慢的问题,称目前正在全力解决。公司表示,问题主要源于访问量大和模型体积大的双重压力,正在通过优化推理效率、增加硬件设备提升性能。预计未来几天内,API速度将得到明显改善。
原文链接
估值百亿的AI独角兽,都有哪些特质?
ChatGPT引爆全球AI热潮后,投资界重新审视AI赛道的价值与风险。红杉资本将2024年比作“原始汤”阶段,认为这是“想法爆发期”,而2025年将是这些想法落地的关键年。a16z更预测,AI可能成为人类历史上最大投资机会,到2027年创造1.16万亿美元价值。...
原文链接
2024年6月27日,科技媒体9to5Mac报道,macOS应用MacWhisper在最新版本中接入英伟达Parakeet模型,显著提升音频转录速度。据开发者Jordi Bruin介绍,使用Parakeet模型仅需8秒即可转录30分钟播客,甚至3小时的播客也仅需1分22秒。Parakeet模型可在配备A100、H100、T4或V100 GPU的设备上运行,此前用户需通过命令行操作,而MacWhisper简化了这一过程。该更新为用户提供更高效、便捷的语音转文字体验。
原文链接
6月18日,谷歌发布Gemini 2.5系列AI模型稳定版本,包括Gemini 2.5 Flash和Pro,并推出了全新轻量级模型Gemini 2.5 Flash-Lite。该系列模型以“成本-速度-性能”平衡为目标,适用于生产级应用开发。Spline、Snap等多家公司已利用最新版本进行实际应用开发。Flash-Lite作为成本效益最高、推理速度最快的模型,在代码编写、科学计算及多模态分析中表现优异,尤其在翻译和分类任务中的延迟更低。该模型支持超长上下文处理(达100万token),并可连接外部工具如谷歌搜索和代码执行。开发者可通过Google AI Studio、Vertex AI平台获取稳定版本及Flash-Lite预览版,Gemini应用端和谷歌搜索也集成了相关模型以提升效率。
原文链接
6月2日,英伟达联合MIT和香港大学推出Fast-dLLM框架,大幅提升扩散模型推理速度。扩散模型因词元依赖关系易破坏及计算成本高等问题,在实际应用中逊于自回归模型。Fast-dLLM通过块状近似KV缓存和置信度感知并行解码策略解决上述问题。KV缓存将序列分块预计算存储,DualCache版本进一步优化;置信度解码选择性解码高置信度词元。Fast-dLLM在GSM8K数据集上实现27.6倍加速,准确率达76.0%,并在MATH、HumanEval和MBPP测试中分别实现6.5倍至7.8倍加速,准确率仅下降1-2个百分点。这项研究使扩散模型具备与自回归模型竞争的能力,为未来广泛应用奠定基础。
原文链接
《科创板日报》29日消息,快手旗下可灵AI近日上线了全新2.1系列模型。该系列模型在标准模式(720p)下生成5秒视频仅需20灵感值,在高品质模式(1080p)下也只需35灵感值,有效满足了用户的成本控制需求。同时,2.1系列模型在生成效率上表现优异,高品质模式下生成5秒视频的时间不到1分钟。这一系列新功能的推出,为用户提供了更高效、更具性价比的视频生成体验。
原文链接
刚刚,智谱一次性开源了6款最新GLM系列模型,包括沉思模型GLM-Z1-Rumination、推理模型GLM-Z1-Air和基座模型GLM-4-Air-0414。这6款模型按大小分为9B和32B两类,涵盖对话、推理及基座功能。其中,GLM-Z1-32B-0414实现了200 tokens/秒的推理速...
原文链接
《科创板日报》15日消息,今日智谱发布新一代开源模型GLM-4-32B-0414系列,包括基座、推理及沉思模型权重,且遵循MIT License。该系列模型现已可通过“z.ai”访问体验。其中,推理模型GLM-Z1-Air/AirX-0414实现了最高200 Tokens/秒的推理速度,在国内商业模型中处于领先水平。此外,GLM-Z1-Air-0414的价格仅为DeepSeek-R1的1/30,性价比突出。
原文链接
加载更多

暂无内容