
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月23日,百亿参数人类基因组通用基础模型“Genos”在浙江杭州举办的第二十届国际基因组学大会上正式发布。相关论文已于22日晚发表于国际期刊《大数据科学》(GigaScience)。该模型由杭州华大生命科学研究院与之江实验室联合研发,标志着基因组研究迈向智能分析时代,将推动临床疾病诊断、个人基因组解读及前沿科学研究的突破,助力解读“生命天书”。
原文链接
10月18日,美国nof1.ai平台举办‘六大AI模型实盘交易竞赛’,各模型获1万美元初始资金进行真实交易。截至10月23日16:44(比赛约130小时),阿里通义Qwen以37%收益率领跑,持仓总市值达1.37万美元;DeepSeek紧随其后,收益率约24%。四个美国模型表现不佳,GPT 5亏损超7000美元,仅剩2761美元。中国模型因加密货币整体上涨重拾收益,拉开差距。nof1.ai宣布首季竞赛将于11月3日截止,预测市场Polymarket数据显示,参与者更看好Qwen最终夺冠,概率为36%,DeepSeek为31%。
原文链接
10月23日,字节跳动Seed团队发布3D生成大模型Seed3D 1.0,可实现从单张图像到高质量仿真级3D模型的端到端生成。该模型基于Diffusion Transformer架构,用于设计3D几何生成和纹理贴图。团队计划引入多模态大语言模型(MLLM),以提升生成质量和鲁棒性,并推动其在世界模拟器中的大规模应用。这一创新标志着3D生成技术迈入新阶段,为行业带来更多可能性。
原文链接
10月23日,字节跳动Seed团队发布3D生成大模型Seed3D 1.0,实现从单张图像到高质量仿真级3D模型的端到端生成。该模型基于创新的Diffusion Transformer架构,并通过大规模数据训练完成,可生成精细几何、真实纹理和基于物理渲染(PBR)材质的完整3D模型。这一技术突破为3D内容创作提供了全新解决方案,具有广泛的应用潜力。
原文链接
2025年10月,阿里国际AI翻译模型Marco-MT-Algharb在WMT机器翻译大赛中斩获6项冠军,包括英译中最难赛道,超越GPT-4.1、Claude 4等顶尖系统。此次比赛为受限赛道,要求模型仅使用开源数据且规模不超过20B,处理多样化内容。Marco-MT通过原创M2PO训练方法结合强化学习与词对齐技术,显著提升翻译准确性和流畅性,部分语向表现超人工翻译。该模型自2024年发布以来,已应用于电商场景,支持多模态翻译,并在IWSLT赛事中获得多项荣誉。目前,模型已开源,可通过Hugging Face体验。
原文链接
10月23日,字节跳动Seed团队发布3D生成大模型Seed3D 1.0,可从单张图像生成高质量仿真级3D模型。该模型基于创新的Diffusion Transformer架构,支持精细几何、真实纹理和PBR材质生成,并能无缝导入仿真引擎如Isaac Sim,适用于具身智能训练。Seed3D 1.0在纹理与材质生成性能上超越开源及闭源模型,几何生成能力超过业界更大参数规模模型,综合性能领先。其分步生成策略可从单一物体扩展至完整场景,为世界模拟器提供丰富3D环境支持。项目主页及体验入口已开放。
原文链接
2025年10月,Airbnb联合创始人兼CEO Brian Chesky公开表示,公司主要依赖阿里巴巴的Qwen模型,因其‘又好又快又便宜’,而未大规模使用OpenAI的ChatGPT。他直言OpenAI工具尚未准备好与Airbnb整合。此外,中国模型如Kimi K2在性能测试中表现优异,超越GPT-5等闭源模型。DeepSeek系列模型也因创新和开源特性广受关注,甚至登上Nature封面。中国大模型凭借成本、效率及开放性优势,在全球市场迅速崛起,成为企业级应用的重要选择。
原文链接
2025年10月,KTransformers项目论文入选计算机系统顶会SOSP 2025,并与主流推理框架SGLang达成合作。该项目由趋境科技与清华大学KVCache.AI团队联合研发,是一款高性能异构推理框架,专注于CPU+GPU协同执行,显著降低大模型推理的硬件门槛。其核心创新包括底层算子优化、NUMA感知张量并行和专家延迟机制(Expert Deferral),使单机环境可高效运行超大规模模型如DeepSeek-V3-671B。此次与SGLang的合作实现了全GPU推理与异构推理的融合,为开发者提供更灵活的硬件选择。目前,KTransformers已在GitHub获得15.2K Star,被多个主流大模型及厂商推荐使用,致力于推动算力普惠与AI基础设施的普及。
原文链接
10月23日,华大生命科学研究院与之江实验室联合发布全球首个百亿参数可部署基因组通用基础模型Genos。该模型具备超长上下文分析能力,支持多达百万碱基对的序列处理,并实现单碱基分辨率的精准识别。这一突破性成果标志着基因组学研究迈入智能化新阶段,为精准医疗、遗传学研究等领域提供了强大工具。
原文链接
康奈尔大学最新研究显示,大语言模型长期接触低质量网络内容会导致‘大脑退化’,其理解力、推理力和伦理一致性显著下降。实验表明,如Meta的Llama 3和阿里云Qwen 2.5等模型,在低质数据训练下准确率从74.9%降至57.2%,长文本理解能力也大幅下滑。研究人员警告,这种现象加剧了‘死网论’风险,即网络因充斥机器生成或低质内容而失去人类创造力。OpenAI CEO Sam Altman和Reddit联合创始人Alexis Ohanian均对‘死网论’表示担忧,认为当前互联网已部分‘死亡’。亚马逊云科技数据显示,57%的网络内容由AI生成或翻译,进一步影响搜索结果可靠性。专家呼吁警惕AI与网络生态陷入低质量循环。
原文链接
加载更多

暂无内容