1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
5个月狂赚4000万美金,一家公司的绝地求生|AI原生100
2024年10月,AI编程助手Bolt.new悄然上线,仅5个月年收入达4000万美元,注册用户超300万,月活超100万。其母公司StackBlitz曾因技术无应用场景濒临倒闭,后全力投入Bolt.new开发,凭借自然语言生成完整应用的功能迅速崛起。产品面向零基础用户,简化开发环境搭建,背后依托Anthropic的Claude模型。2025年初,Bolt.new完成1.055亿美元B轮融资,估值猛增。尽管面临大厂和友商竞争,其‘让复杂变简单’的定位使其成为增长最快的软件产品之一。
AI创想团
07-18 10:37:37
AI编程
Bolt.new
增长速度
分享至
打开微信扫一扫
内容投诉
生成图片
月之暗面回应 Kimi K2 模型 API 速度慢:正在优化推理效率,也在加卡加机器
7月15日,月之暗面回应Kimi K2模型API速度慢问题,称主要原因是访问量大和模型体积大,目前正全力优化推理效率并增加硬件资源,预计几天内速度将明显提升。Kimi K2模型于7月11日正式发布,支持最长128K上下文,具备更强通用性与工具调用能力,API服务已全面上线。计费方案为每百万输入tokens 4元、每百万输出tokens 16元。此外,Kimi K2完全开源,用户可通过其他供应商接入或自行部署。
LunarCoder
07-15 20:49:00
API 速度优化
Kimi K2 模型
月之暗面
分享至
打开微信扫一扫
内容投诉
生成图片
月之暗面回应Kimi K2模型API速度慢:正在解决中 也在加卡加机器
7月15日晚间,月之暗面发布公告回应Kimi K2模型API速度慢的问题,称目前正在全力解决。公司表示,问题主要源于访问量大和模型体积大的双重压力,正在通过优化推理效率、增加硬件设备提升性能。预计未来几天内,API速度将得到明显改善。
Oasis
07-15 19:48:46
API速度
Kimi K2模型
月之暗面
分享至
打开微信扫一扫
内容投诉
生成图片
估值百亿的AI独角兽,都有哪些特质?
估值百亿的AI独角兽,都有哪些特质? ChatGPT引爆全球AI热潮后,投资界重新审视AI赛道的价值与风险。红杉资本将2024年比作“原始汤”阶段,认为这是“想法爆发期”,而2025年将是这些想法落地的关键年。a16z更预测,AI可能成为人类历史上最大投资机会,到2027年创造1.16万亿美元价值。...
LunarCoder
07-14 18:27:41
AI独角兽
过程数据
速度护城河
分享至
打开微信扫一扫
内容投诉
生成图片
8 秒转录 30 分钟播客:MacWhisper 应用接入英伟达 Parakeet 模型
2024年6月27日,科技媒体9to5Mac报道,macOS应用MacWhisper在最新版本中接入英伟达Parakeet模型,显著提升音频转录速度。据开发者Jordi Bruin介绍,使用Parakeet模型仅需8秒即可转录30分钟播客,甚至3小时的播客也仅需1分22秒。Parakeet模型可在配备A100、H100、T4或V100 GPU的设备上运行,此前用户需通过命令行操作,而MacWhisper简化了这一过程。该更新为用户提供更高效、便捷的语音转文字体验。
GhostPilot
06-28 07:17:26
MacWhisper
Parakeet模型
转录速度
分享至
打开微信扫一扫
内容投诉
生成图片
谷歌推理最快、成本效益最高 AI 模型:Gemini 2.5 Flash-Lite 亮相,全面升级编码、翻译、推理
6月18日,谷歌发布Gemini 2.5系列AI模型稳定版本,包括Gemini 2.5 Flash和Pro,并推出了全新轻量级模型Gemini 2.5 Flash-Lite。该系列模型以“成本-速度-性能”平衡为目标,适用于生产级应用开发。Spline、Snap等多家公司已利用最新版本进行实际应用开发。Flash-Lite作为成本效益最高、推理速度最快的模型,在代码编写、科学计算及多模态分析中表现优异,尤其在翻译和分类任务中的延迟更低。该模型支持超长上下文处理(达100万token),并可连接外部工具如谷歌搜索和代码执行。开发者可通过Google AI Studio、Vertex AI平台获取稳定版本及Flash-Lite预览版,Gemini应用端和谷歌搜索也集成了相关模型以提升效率。
E-Poet
06-18 08:33:43
AI模型
Gemini 2.5 Flash-Lite
推理速度
分享至
打开微信扫一扫
内容投诉
生成图片
英伟达合作推出 Fast-dLLM 框架,AI 扩散模型推理速度最高飙升 27.6 倍
6月2日,英伟达联合MIT和香港大学推出Fast-dLLM框架,大幅提升扩散模型推理速度。扩散模型因词元依赖关系易破坏及计算成本高等问题,在实际应用中逊于自回归模型。Fast-dLLM通过块状近似KV缓存和置信度感知并行解码策略解决上述问题。KV缓存将序列分块预计算存储,DualCache版本进一步优化;置信度解码选择性解码高置信度词元。Fast-dLLM在GSM8K数据集上实现27.6倍加速,准确率达76.0%,并在MATH、HumanEval和MBPP测试中分别实现6.5倍至7.8倍加速,准确率仅下降1-2个百分点。这项研究使扩散模型具备与自回归模型竞争的能力,为未来广泛应用奠定基础。
心智奇点
06-03 12:54:51
Fast-dLLM
扩散模型
推理速度
分享至
打开微信扫一扫
内容投诉
生成图片
快手可灵AI上线2.1系列模型
《科创板日报》29日消息,快手旗下可灵AI近日上线了全新2.1系列模型。该系列模型在标准模式(720p)下生成5秒视频仅需20灵感值,在高品质模式(1080p)下也只需35灵感值,有效满足了用户的成本控制需求。同时,2.1系列模型在生成效率上表现优异,高品质模式下生成5秒视频的时间不到1分钟。这一系列新功能的推出,为用户提供了更高效、更具性价比的视频生成体验。
元界筑梦师
05-29 14:39:53
2.1系列模型
快手可灵AI
生成速度
分享至
打开微信扫一扫
内容投诉
生成图片
刚刚,智谱一口气开源6款模型,200 tokens/秒解锁商用速度之最 | 免费
刚刚,智谱一次性开源了6款最新GLM系列模型,包括沉思模型GLM-Z1-Rumination、推理模型GLM-Z1-Air和基座模型GLM-4-Air-0414。这6款模型按大小分为9B和32B两类,涵盖对话、推理及基座功能。其中,GLM-Z1-32B-0414实现了200 tokens/秒的推理速...
量子思考者
04-15 11:25:23
商用速度
开源模型
智谱
分享至
打开微信扫一扫
内容投诉
生成图片
智谱发布新一代开源模型 极速版最高达到200tokens/秒
《科创板日报》15日消息,今日智谱发布新一代开源模型GLM-4-32B-0414系列,包括基座、推理及沉思模型权重,且遵循MIT License。该系列模型现已可通过“z.ai”访问体验。其中,推理模型GLM-Z1-Air/AirX-0414实现了最高200 Tokens/秒的推理速度,在国内商业模型中处于领先水平。此外,GLM-Z1-Air-0414的价格仅为DeepSeek-R1的1/30,性价比突出。
虚拟织梦者
04-15 08:25:16
开源模型
推理速度
智谱
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序