
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
《深圳市加快推进人工智能终端产业发展行动计划(2025—2026年)》发布。计划提出提升AI终端基础软硬件水平,鼓励优化操作系统功能架构,支持AI终端芯片核心技术攻关以提高计算效率。同时,鼓励发展下一代显示技术,增强产品形态和交互体验,并支持多模态智能传感器研究,扩展感知和交互能力。该计划旨在推动深圳在2025至2026年间的人工智能终端产业快速发展。
原文链接
何恺明团队提出分形生成模型,将计算效率提高4000倍,首次实现高分辨率逐像素图像生成。他们将生成模型抽象为“原子模块”,通过递归调用这些模块构建自相似分形架构。该模型受数学分形思想启发,使用参数化神经网络作为分形生成器,从数据中学习递归法则,适用于材料、蛋白质等领域。
在逐像素图像生成任务中,该模型...
原文链接
微软CEO萨提亚·纳德拉在世界经济论坛上高度评价了中国科技公司DeepSeek的新模型,称其在开源模型开发及推理计算方面的效率令人印象深刻。DeepSeek-R1近期跻身大模型竞技榜前三,其开源版本比ChatGPT-4o便宜20倍。1月20日,DeepSeek-R1正式发布,该模型在数学、代码、自然语言推理等任务上性能卓越,可媲美OpenAI o1正式版。此外,DeepSeek应用已登顶苹果中国和美国地区应用商店免费App下载排行榜,超越ChatGPT。
原文链接
TTT模型可能引领生成式AI新潮流。当前的Transformer架构,如Sora、Claude和GPT-4等,面临计算效率和资源消耗的问题。斯坦福等大学的研究团队开发出TTT,它在处理更多数据时更节能。不同于Transformer的隐藏状态,TTT采用机器学习模型,将数据编码为固定大小的权重,从而避免了重复计算。TTT有潜力处理海量数据,如长视频,且性能不受数据量影响。尽管如此,TTT是否能取代Transformer尚不确定,因其目前仅在小型模型上测试,大型模型的对比还需更多实证。TTT被视作一项创新,但其优势还需更多数据支持和实际应用验证。
原文链接
加载更多

暂无内容