
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
7月15日,月之暗面回应Kimi K2模型API速度慢问题,称主要原因是访问量大和模型体积大,目前正全力优化推理效率并增加硬件资源,预计几天内速度将明显提升。Kimi K2模型于7月11日正式发布,支持最长128K上下文,具备更强通用性与工具调用能力,API服务已全面上线。计费方案为每百万输入tokens 4元、每百万输出tokens 16元。此外,Kimi K2完全开源,用户可通过其他供应商接入或自行部署。
原文链接
7月15日晚间,月之暗面发布公告回应Kimi K2模型API速度慢的问题,称目前正在全力解决。公司表示,问题主要源于访问量大和模型体积大的双重压力,正在通过优化推理效率、增加硬件设备提升性能。预计未来几天内,API速度将得到明显改善。
原文链接
7月3日,科技媒体bleepingcomputer报道,ChatGPT应用或将引入类似Operator的智能体工具。Operator是OpenAI推出的AI工具,可模拟人类操作浏览器完成任务,如预订餐厅、填写表单等。安卓测试版ChatGPT代码中发现了“点击”“拖拽”“输入”等操作关键词,以及可能调用远程浏览器或API执行任务的线索。此外,代码提及“intake form”,暗示新功能可能以邀请制形式内测。这一进展表明ChatGPT正向更智能化的操作能力迈进,具体上线时间尚不明确。
原文链接
6月30日,百度正式开源文心大模型4.5系列,包含10款模型,涵盖47B、3B激活参数的混合专家(MoE)模型及0.3B参数的稠密型模型,支持预训练权重和推理代码完全开源。该系列模型已在飞桨星河社区、HuggingFace等平台上线,并可通过百度智能云千帆大模型平台使用API服务。文心大模型4.5在多模态理解、文本任务性能等方面表现优异,部分模型在多个基准测试中达到SOTA水平,尤其在指令遵循、视觉理解和多模态推理方面表现突出。
原文链接
5月21日,OpenAI宣布扩展Responses API,新增多项功能支持开发者构建更智能的应用。新功能包括远程连接MCP服务器、图像生成(基于gpt-image-1模型)、Code Interpreter工具以及文件搜索优化。Responses API现全面支持GPT-4o系列和GPT-4.1系列模型。开发者可通过几行代码连接Cloudflare、HubSpot、Stripe等MCP服务器,快速访问数据源。图像生成工具支持实时流式预览与多轮编辑,Code Interpreter助力复杂数学与编码问题解决,文件搜索支持多向量存储与属性过滤。此外,API新增后台模式处理长时间任务,推理摘要功能用自然语言总结推理过程,加密推理项保障Zero Data Retention用户在无数据存储情况下复用推理项,降低延迟与成本。
原文链接
5月10日消息,谷歌为其Gemini 2.5 API推出“隐式缓存”功能,自动识别并重用API请求中的常见前缀,使开发者的成本最高降低75%。该功能适用于Gemini 2.5 Pro和Gemini 2.5 Flash模型。与2024年5月发布的“显式缓存”不同,“隐式缓存”无需开发者手动配置,系统默...
原文链接
5月6日消息,月之暗面今日正式发布了Kimi长思考模型API。Kimi-thinking-preview模型是最新推出的k系列多模态思考模型,具备深度推理和多模态推理能力。用户可通过更换model或使用openai SDK来访问该模型。不过,该版本仍处于预览阶段,存在多项功能限制,包括不支持工具调用、联网搜索、JSON Mode及Partial模式等。若强行启用上述功能,可能导致模型输出异常内容。详细API使用文档可参考:[此处]。
原文链接
OpenAI深夜发布全新API和工具,简化智能体开发流程。推出Responses API、三大内置工具及开源SDK,支持多轮交互与工具调用。Responses API结合Chat Completions的简单性与Assistants API的工具能力,支持网络搜索、文件搜索和计算机使用。网络搜索工具基于微调的GPT-4o,文件搜索新增元数据过滤和直接搜索端点,计算机使用工具在多项基准测试中刷新SOTA。此外,开源的Agents SDK优化多智能体工作流管理,支持任务交接和安全防护。OpenAI计划逐步淘汰Assistants API,建议开发者转向Responses API。该工具从今日起可供开发者使用,价格按标准费率计费。
原文链接
5月1日,科技媒体KrebsOnSecurity报道,埃隆·马斯克旗下的xAI公司因员工失误,在GitHub上泄露API密钥近2个月。该密钥可访问xAI的多个大型语言模型(LLMs),包括未发布的Grok聊天机器人版本(如grok-2.5V)及与SpaceX、Tesla相关联的定制模型。法国安全咨询公司Seralys率先披露此问题,GitGuardian随后介入调查。尽管GitGuardian于3月2日已向涉事员工发出警告,但直至4月30日联系xAI安全团队,问题才得到解决。研究显示,该密钥还涉及“tweet-rejector”和“grok-spacex-2024-11-04”等私有模型。GitGuardian负责人Carole Winqwist指出,攻击者若利用此漏洞,可能实施提示注入或植入恶意代码,威胁供应链安全。
原文链接
4月30日,在首届LlamaCon大会上,Meta发布了Llama API,支持开发者测试最新模型Llama 4 Scout和Maverick,并提供一键API密钥创建及轻量级SDK。该API兼容OpenAI SDK,便于开发者迁移应用。Meta与Cerebras合作优化性能,Cerebras推出的Llama 4 Cerebras模型达到2600 tokens/s的速度,比NVIDIA方案快18倍,远超ChatGPT(130 tokens/s)和DeepSeek(25 tokens/s)。Groq提供的Llama 4 Scout模型速度为460 tokens/s,输入/输出费用分别为0.11美元和0.34美元。Cerebras CEO Andrew Feldman表示,Llama API已成为全球最快的推理API,显著提升AI系统性能。
原文链接
加载更多

暂无内容