1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
清华AI找药登Science!一天筛选10万亿次,解决AlphaFold遗留难题
2026年1月,清华大学智能产业研究院联合生命学院、化学系在《Science》发表论文,推出AI驱动的超高通量药物虚拟筛选平台DrugCLIP。该平台每天可完成10万亿次蛋白-分子配对计算,解决了AlphaFold结构预测到药物发现的关键难题。团队首次实现覆盖人类基因组规模的药物虚拟筛选,针对抑郁症、癌症、帕金森等疾病找到潜在药物分子,并对外开放相关数据。DrugCLIP通过对比学习和3D结构预训练技术,大幅提升筛选效率与精度,在多个实验中表现优异,为后AlphaFold时代的药物研发带来新可能。项目获国家科技部、自然科学基金委等支持,未来将加速抗癌、传染病等领域的新药发现。
阿达旻
01-09 16:22:49
AlphaFold
DrugCLIP
虚拟筛选
分享至
打开微信扫一扫
内容投诉
生成图片
清华AI找药登Science!一天筛选10万亿次,解决AlphaFold到药物发现的最后一公里
清华大学智能产业研究院联合生命学院、化学系在Science发表论文,推出AI药物筛选平台DrugCLIP。该平台日处理能力达10万亿次蛋白-分子配对计算,首次完成覆盖人类基因组规模的药物虚拟筛选,为抑郁症、癌症、帕金森等疾病找到潜在药物分子。团队通过对比学习训练AI编码器,将传统物理对接转化为高效向量检索问题,显著提升筛选效率与精度。实验验证显示,DrugCLIP在多个靶点上表现优异,例如针对去甲肾上腺素转运体筛选出15%有效抑制剂,部分分子性能优于现有药物。此外,DrugCLIP支持AlphaFold预测结构筛选,为近一半人类蛋白质找到潜在‘药物种子’。相关数据已对外开放,助力后AlphaFold时代的药物研发。
镜像现实MirageX
01-09 15:22:04
AlphaFold
DrugCLIP
虚拟筛选
分享至
打开微信扫一扫
内容投诉
生成图片
清华大学 2026 年首篇 Science 论文:AI 帮助药物虚拟筛选提速百万倍,数据库面向全球免费开放
2026年1月9日,清华大学发布2026年首篇《科学》论文,智能产业研究院与生命学院、化学系联合团队研发出AI驱动的药物虚拟筛选平台DrugCLIP。该平台筛选速度较传统方法提升百万倍,预测准确率显著提高,并首次完成覆盖人类基因组规模的药物虚拟筛选,涉及约1万个蛋白靶点和2万个蛋白口袋,分析超5亿类药小分子,富集出200多万潜在活性分子。团队构建了目前全球最大规模的蛋白-配体筛选数据库,并免费向全球科研社区开放。研究成果以《深度对比学习实现基因组级别药物虚拟筛选》为题发表于《科学》,项目官网和论文链接同步公开。
神经网络领航员
01-09 13:16:10
DrugCLIP
清华大学
药物虚拟筛选
分享至
打开微信扫一扫
内容投诉
生成图片
让大模型学会“高维找茬”,中国联通新研究解决长文本图像检索痛点|AAAI 2026 Oral
正文:2025年12月,中国联通数据科学与人工智能研究院在AAAI 2026 (Oral)发表新研究HiMo-CLIP,突破长文本图像检索难题。该模型通过建模“语义层级”与“语义单调性”,自动捕捉语境中的“语义差异点”,显著提升长文本和组合性文本的检索精度,同时兼顾短文本性能。HiMo-CLIP采用层级分解模块(HiDe)和单调性感知对比损失(MoLo),动态提取关键特征并优化图文对齐机制。实验显示,仅用1M训练数据,HiMo-CLIP性能超越使用100M甚至10B数据的现有方法,并在自建数据集HiMo-Docci上取得SOTA结果。
Nebula
12-01 17:18:28
HiMo-CLIP
语义层级
长文本图像检索
分享至
打开微信扫一扫
内容投诉
生成图片
谢赛宁团队新作打破“多语言诅咒”!MetaCLIP 2支持300多种语言,英语性能反倒提升了
谢赛宁团队发布MetaCLIP 2模型,支持300多种语言,打破“多语言诅咒”,并提升英语性能。该模型通过扩展元数据、优化筛选算法和调整训练策略,解决了非英语数据处理难题,并在多项任务中创下新SOTA。实验显示,其在ImageNet分类准确率达81.3%,超越纯英语CLIP的80.5%;在多语言图像分类和跨语言检索任务中表现突出。此外,模型嵌入质量更优,在文化多样性任务中表现显著提升。相关论文与代码已开源。
电子诗篇
08-01 08:57:44
MetaCLIP 2
NoFilter
多语言诅咒
分享至
打开微信扫一扫
内容投诉
生成图片
Kimi K2官方技术报告出炉:采用384个专家,训练不靠刷题靠“用自己的话再讲一遍”
2025年7月,Kimi K2官方技术报告发布,揭示其训练秘籍。该模型采用384个专家、总参数达1万亿,激活参数32B,擅长代码、Agent及数学推理任务,并在上线一周内击败DeepSeek,登顶全球最强开源模型。其核心技术包括MuonClip优化器、大规模Agentic Tool Use数据合成及通用强化学习框架,强调‘用自己的话再讲一遍’的训练方式提升效率。此外,阿里通义Qwen3-235B-A22B-2507版本更新,官方称性能超越Kimi K2,或成新王者。
新智燎原
07-22 15:34:45
Agentic Tool Use数据合成
Kimi K2
MuonClip优化器
分享至
打开微信扫一扫
内容投诉
生成图片
上海 AI 实验室联合清华等大学突破强化学习算法,攻克 AI 推理熵崩溃难题
6月4日消息,上海人工智能实验室联合清华大学、伊利诺伊大学香槟分校等国际团队,成功研发新方法解决强化学习中的策略熵崩溃问题。研究提出Clip-Cov和KL-Cov技术,通过裁剪高协方差token和施加KL惩罚维持熵水平。实验基于Qwen2.5模型和DAPOMATH数据集,在数学任务中,32B模型在AIME25测试中性能提升15.0%。该方法已在Qwen2.5、Mistral、LLaMA等多个开源模型上验证,参数规模覆盖0.5B至32B,涵盖数学和编程任务的8个公开基准测试。这项突破不仅解决熵崩溃难题,还为强化学习在语言模型中的应用提供理论支持,未来需进一步探索熵管理策略。
AI创意引擎
06-04 08:15:30
Clip-Cov
强化学习
策略熵崩溃
分享至
打开微信扫一扫
内容投诉
生成图片
告别“图文不符”!FG-CLIP实现细粒度跨模态对齐,360开源模型重塑AI视觉理解
标题:FG-CLIP实现细粒度跨模态对齐,重塑AI视觉理解 360人工智能研究院发布的FG-CLIP模型解决了传统CLIP的“视觉近视”问题,通过“长文本深度理解”和“细粒度视觉比对”双突破,精准识别局部细节。实验显示,FG-CLIP在细粒度理解、开放词汇检测、图文检索等任务中均优于其他模型。 ...
心智奇点
04-28 16:55:49
FG-CLIP
细粒度理解
跨模态对齐
分享至
打开微信扫一扫
内容投诉
生成图片
微软 Copilot 新技能:背靠 500 万 Clipchamp 素材库,秒速生成 AI 视频
2月21日,微软发布Visual Creator工具,集成Microsoft Clipchamp,可在几秒内生成AI视频。该工具面向拥有Copilot许可证的商业用户,建议企业各团队利用其制作培训及演示视频。用户只需输入提示词,Copilot自动生成脚本并从Clipchamp素材库中挑选素材,添加音乐和特效后生成视频。该工具使用现有素材,Clipchamp库中有500万张图片可供选择。目前,Visual Creator不生成新画面。
神经网络领航员
02-22 16:39:05
Clipchamp
Copilot
Visual Creator
分享至
打开微信扫一扫
内容投诉
生成图片
一张图实现街道级定位,端到端图像地理定位大模型AddressCLIP登ECCV2024
一张图实现街道级定位的大模型AddressCLIP入选ECCV2024 AddressCLIP项目组由中科院自动化所和阿里云共同研发,推出了一款端到端图像地理定位大模型,仅需一张照片即可实现街道级精度的定位。此模型名为AddressCLIP,基于CLIP架构,论文《Empowering Vision...
虚拟织梦者
09-15 22:45:54
AddressCLIP
ECCV2024
图像地理定位
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序