1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议

2025年9月,复旦大学研究团队提出一种基于部首和象形分析的甲骨文破译新框架,在公开基准数据集HUST-OBC和EV-OBC上创下Top-10识别准确率的新SOTA,并展现优异零样本破译能力。该框架通过渐进式训练策略,结合部首识别、象形分析及双重匹配机制,显著提升未破译甲骨文的泛化性能与可解释性。团队构建了包含47,157个汉字的PD-OBS数据集,为模型训练提供重要支持。实验显示,新方法在零样本场景中Top-10准确率比次优方案高出26.2%(HUST-OBC)和13.6%(EV-OBC),为考古研究带来潜在价值。论文与项目已公开。

原文链接
本文链接:https://kx.umi6.com/article/24855.html
转载请注明文章出处
分享至
打开微信扫一扫
内容投诉
生成图片
相关推荐
换一换
无需参数访问!CMU用大模型自动优化视觉语言提示词 | CVPR’24
2024-11-07 10:13:00
大模型破译甲骨文创下新 SOTA,复旦团队推出新框架
2025-09-08 14:00:34
谷歌 DeepMind 发布 WebLI-100B:千亿级数据集解锁 AI 视觉语言模型的文化多样性
2025-02-14 15:43:06
视觉语言模型安全升级,还不牺牲性能!技术解读一文看懂|淘天MMLab南大重大出品
2025-01-17 12:16:08
Hugging Face 最小 AI 视觉语言模型登场:2.56 亿参数,内存低于 1GB PC 也能驾驭
2025-01-24 11:41:33
今年 9 月起,复旦大学 2024-2025 学年将推出至少 100 门“AI 大课”
2024-06-05 12:26:15
首创像素空间推理,7B模型领先GPT-4o,让VLM能像人类一样「眼脑并用」
2025-06-09 18:31:59
刚刚,小红书开源了首个多模态大模型dots.vlm1,性能直追SOTA!
2025-08-08 16:14:57
复旦团队国际首次验证超快闪存集成工艺:20 纳秒超快编程、10 年非易失
2024-08-13 13:22:11
Hugging Face 推出号称“世界上最小的视觉语言模型”SmolVLM-256M
2025-01-26 21:16:45
复旦大学可信具身智能研究院正式揭牌成立
2025-03-31 15:41:40
业界首个:英伟达发布专注于自动驾驶的视觉语言动作模型 Alpamayo-R1
2025-12-02 07:58:16
复旦大学研究:AI 跨越关键“红线”,已能实现自我复制
2025-02-11 08:40:54
24小时热文
更多
扫一扫体验小程序