综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
对科技圈,小红书是个「新绿洲」
作者|张鹏
编辑|连冉
最近我发现,自己刷小红书的时间越来越多了,原因很特别:我竟然是去刷科技动态和找创新产品的!尽管我有很多内容渠道和工具来获取科技资讯,但小红书的使用时长今年上升最明显。仔细思考后,我觉得可能是因为小红书有一种独特的「人间视角」,许多真实的...
原文链接
2025年12月,小红书正式上线官方AI助手“点点”,取代了原有的侧边栏功能。用户可通过点击首页气泡或分享笔记与点点互动,支持划词提问和评论区唤醒,体验便捷的AI对话服务。点点依托小红书海量内容,在推荐文娱作品、餐饮推荐及信息总结方面表现突出,尤其在整理用户评价和笔记内容时效率较高。然而,部分用户对侧边栏改动表示不满,认为AI过滤的信息不如手动浏览丰富。目前,官方正积极收集反馈以优化功能,意见反馈截止时间为12月31日。尽管此前小红书在AI领域动作较保守,但此次更新被视为其在AI技术应用上的重要一步,释放出积极信号。
原文链接
12月26日,小红书与复旦大学联合推出突破性AI技术InstanceAssemble,精准还原复杂图像排版。该技术基于“实例组装注意力”机制,在布局控制生成领域实现从简单到密集场景的高精度图像生成,成果已被NeurIPS 2025收录。用户只需提供物体位置和描述,AI即可生成语义一致、布局对齐的图像,适配主流模型仅需约3.46%额外参数。研究团队还创建了含5000张图像的Denselayout基准测试集及全新评估指标LGS。实验显示,即使训练数据稀疏,InstanceAssemble在密集布局中仍表现优异。目前代码与模型已开源,为设计、广告等领域提供强大支持。
原文链接
12月16日,有媒体报道称,小红书等社交平台近期出现大量“完美夫妻装修帖”,如“武汉夫妻耗时3个月选出最优解”“杭州90后夫妻避坑指南”等。然而,网友发现这些帖子中的‘夫妻’竟是同一对人。爆料指出,这些内容多由AI生成,目的是引流推荐装修公司。装修从业者分析称,人物面部光影不协调、背景模糊等问题明显是AI或P图痕迹。此类文案套路固定,常以‘亲测靠谱’为由诱导用户私信获取推荐名单。对此,小红书回应称将加强技术识别AI内容,并呼吁用户举报违规行为,平台将及时核实处理。
原文链接
9月18日,小红书在其「问出好offer 第二季」校招直播间中宣布开启史上最大规模校招,开放八大职类,技术岗位需求暴涨2.5倍。技术副总裁风笛首次公开了小红书的AI技术体系,涵盖AI基础设施、基础模型、内容理解与创作、信息分发和社区守护五大板块。直播还展示了推荐/搜索算法的独特之处,强调语义理解和社区互动的价值。此外,小红书通过连麦环节回答学生职业规划问题,并介绍了专属培养计划“薯光计划”,帮助校招生快速融入并成长。目前校招正在进行中,可通过官网或小程序投递简历。
原文链接
8月7日,小红书hi lab宣布开源其dots模型家族中的首个视觉语言模型dots.vlm1。该模型基于12亿参数的视觉编码器和DeepSeek V3 LLM构建,经过大规模预训练与精调,在视觉感知和推理能力上达到接近行业领先水平(准SOTA)。这一开源项目有望推动多模态技术的发展,并为开发者提供更强大的工具支持。
原文链接
正文:8月6日,小红书hi lab正式发布并开源首个多模态AI大模型dots.vlm1。该模型基于DeepSeek V3 LLM构建,配备从零训练的12亿参数视觉编码器NaViT,并支持动态分辨率和多种感知能力优化。通过引入多样化合成数据及图文交错网页数据重写,dots.vlm1在视觉感知与推理方面接近SOTA水平,在MMMU、MathVision等基准测试中表现优异,同时具备一定的文本推理能力。尽管部分细分任务仍有提升空间,其综合性能为开源多模态模型树立了新标杆。项目已开源。
原文链接
7月4日,小红书开放内测长文功能,定向邀请部分创作者。长文标题限制20字内,正文支持千字以上,可插入图片或表情包,并提供一键排版功能,自动切分内容为图片形式展示。新增AI生成封面配图与摘要功能,后台提供6种排版模板供选择,支持自定义主题配色、封面和摘要,实时预览效果。发布后用户仍通过右划方式阅读,延续现有图文阅览模式。(蓝鲸新闻)
原文链接
财联社6月12日电,小红书今日公布虚假内容治理报告。报告显示,2025年上半年,小红书通过构建虚假内容全链路治理体系,累计处置虚假笔记320万篇,清理虚假人设账号1万个,并处理虚假低质AIGC(人工智能生成内容)笔记60万篇。此外,小红书还对批量造假的黑灰产账号采取严厉措施,封禁相关账号超1000万个。这一系列行动体现了平台在净化社区环境方面的持续努力。
原文链接
《科创板日报》10日讯,小红书开源首个大模型dots.llm1,该模型为1420亿参数的混合专家模型(MoE),在推理时仅激活140亿参数,从而在保证高性能的同时显著降低训练和推理成本。值得注意的是,dots.llm1在预训练阶段采用11.2万亿非合成数据,这使其在中英文、数学及对齐任务上的表现接近阿里Qwen3-32b。
原文链接
加载更多
暂无内容