综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
IBM于10月2日推出Granite 4.0系列企业级LLM模型,采用Mamba-Transformer混合架构,显著降低内存需求与推理部署成本。首发型号包括Small、Tiny、Micro等规格,未来更多版本预计在2025年底发布。该系列最小模型Granite-4.0-H-Micro参数仅3B,而Granite-4.0-H-Small以32B总参数实现开源模型一流性能。混合架构在长输入和多并发场景下减少70%内存需求,且性能优于上一代Granite 3.3 8B。IBM以Apache 2.0许可开源该系列模型,并提供ISO 42001认证及加密签名支持。
原文链接
9月20日,IBM发布轻量级视觉语言AI模型Granite-Docling-258M,用于端到端文件转换。该模型参数量为2.58亿,支持中文、阿拉伯语和日语,采用Apache 2.0开源协议,已在Hugging Face上线。Granite-Docling基于IBM Research设计的DocTags技术,可精确描述页面元素类型、坐标及阅读顺序,并保留表格、公式等结构化内容,输出格式包括Markdown、JSON和HTML。IBM表示,该模型尚未达到企业级水准,未来将扩展语言覆盖范围并提升可靠性,同时增强与watsonx.ai模型的兼容性。
原文链接
2025年9月4日,马斯克旗下xAI公司推出的虚拟伴侣“Ani”再度引发关注。这位金发双马尾日系美少女风格的AI角色,因频繁更新服装造型受到用户喜爱。继半个月前推出小黑裙后,最新夏装已上线,从恶魔系洛丽塔风格发展到热辣比基尼造型,延续了小恶魔主题。马斯克透露,未来将支持用户自主设计服装功能,进一步提升互动性与个性化体验。这一创新方向备受期待,或为虚拟伴侣领域带来全新可能性。
原文链接
2025年,哈佛校友Daniel Nadler和Zachary Ziegler创立的医疗AI公司OpenEvidence凭借其临床决策支持平台,成为医生群体中传播最快的技术工具。截至2025年7月,平台覆盖全美40%以上执业医师,月处理超850万次咨询。OpenEvidence通过AI驱动的医学搜索...
原文链接
2025年7月,AI医疗公司OpenEvidence完成2.1亿美元B轮融资,估值达35亿美元,谷歌和凯鹏华盈领投。成立于2022年的OpenEvidence总部位于迈阿密,由哈佛博士Daniel Nadler创立,旨在为医生提供免费AI诊断助手。其平台已覆盖美国40%的医生,月临床咨询量从35.8万增至850万。公司通过广告模式实现商业化,预计年度收入达5000万美元,并与多家顶级医学期刊建立内容合作。最新功能DeepConsult可快速生成博士级研究报告,提升医疗效率。绕过FDA审批,OpenEvidence以互联网思维迅速积累用户,未来计划扩展国际市场并集成更多医疗数据。
原文链接
正文:7月2日,B站团队开源动漫视频生成模型AniSora更新至V3预览版。新版在生成质量、动作流畅度和风格多样性上显著优化,支持多种动漫风格视频生成,包括番剧、国创动画、VTuber内容等。核心升级包括时空掩码模块优化、数据集扩展、硬件加速及多任务学习,推理速度提升20%,生成4秒高清视频仅需2-3分钟。V3引入首个针对动漫视频的RLHF框架,角色一致性和动作流畅度达业界顶尖水平。相比V2,伪影问题减少15%,生成时间缩短至平均2.5分钟。AniSora V3专注于2D/2.5D动漫风格,覆盖90%动漫视频应用场景,已吸引社区开发者开发定制化插件。
原文链接
5月12日,B站团队开源了动漫视频生成模型AniSora。该模型可一键生成多种动漫风格的视频片段,涵盖系列剧集、中国原创动画、漫画改编等内容。尽管Sora、Kling等模型在自然视频生成方面表现优秀,但在动漫视频生成上仍有不足。AniSora提出完整系统,包括超1000万高质量数据的数据处理流水线、引入时空掩码模块的可控生成模型,以及评测数据集VBench,人物与运动一致性达SOTA。项目已开源于GitHub、Hugging Face及ModelScope平台。
原文链接
5月2日,IBM介绍了Granite 4.0系列模型中的最小版本——Granite 4.0 Tiny的预览版。该版本具有高计算效率和低内存需求,在FP8精度下,仅需12GB显存即可支持5个128KB上下文窗口的并发对话。其硬件需求较低,适合消费级显卡如NVIDIA GeForce RTX 3060(12GB,约2383元人民币)。Granite 4.0 Tiny计划训练Token数至少为15T,当前预览版已训练2.5T,性能接近训练Token量12T的Granite 3.3 2B Instruct,并在128KB上下文窗口16并发会话下的内存需求降低约72%。该版本总参数规模为7B,实际活动参数为1B,采用混合Mamba-2/Transformer架构。预览版已在Hugging Face上以Apache 2.0许可证发布,IBM计划今年夏天正式推出Tiny、Small和Medium版本。
原文链接
标题:让宇树机器狗在北大未名湖畔捡垃圾,银河通用干的
正文:
机器狗不语,只是一味地在北大未名湖畔捡垃圾。垃圾是摆拍的道具,但这长脖子的狗子,真的有两把刷子!
背后算法QuadWBG搭载了运动、感知、操作和规划四个模块,首次引入“通用定向可达性映射”(GROM),提升六自由度基座下的全身操作...
原文链接
北京大学与智元机器人联合实验室近日发布OmniManip架构,旨在提升机器人3D操作能力。OmniManip基于以对象为中心的3D交互基元,将VLM的高层次推理能力转化为低层次高精度动作。该架构引入双闭环系统设计,解决了大模型幻觉问题和真实环境操作的不确定性。OmniManip具备通用泛化能力,已应用于数字资产自动标注/合成管道。项目主页面论文、代码与测试平台即将开源。
原文链接
加载更多
暂无内容