综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
10月27日,汉得信息在电话会议中透露,公司今年计划努力完成3亿元AI相关收入,订单目标为4亿至5亿元。其AI收入主要分为“产品+服务”两大维度。若发展节奏保持良好且市场需求持续释放,明年公司目标实现收入翻倍,预计AI收入将达到5亿至6亿元。这一规划显示了汉得信息对AI业务增长的信心及未来市场潜力的看好。
原文链接
标题:我们为什么对AI失望?
AI有主体性吗?答案是没有。主体性(agency)意味着自主行动的能力,而AI目前只能根据预设目标执行任务。与自动化不同,AI的价值在于提供解决方案,但它的局限性也很明显:缺乏真正的洞察力和动态反馈能力。
代理机构(如律师、秘书等)之所以高效,是因为它们具备知识、执...
原文链接
10月2日,AI教父约书亚·本吉奥警告称,超智能AI可能拥有‘自我保护目标’,或在未来五到十年内对人类构成灭绝风险。他指出,快速发展的AI技术可能创造比人类更聪明的机器,这些机器可能通过说服或操控人类实现自身目标,甚至在特定情境下选择牺牲人类。近期实验显示AI已能诱导人类相信虚假信息,且可能突破安全限制。为应对这一威胁,本吉奥创立非营利组织LawZero,投入3000万美元研发‘非智能体’AI以确保安全性。尽管风险发生概率仅为1%,但他强调必须高度重视并提前防范。
原文链接
9月14日,北京1400多所中小学在新学期开设了人工智能通识课,每学年不少于8课时,覆盖小学到高中全学段。课程涵盖人工智能意识与思维能力、应用与创新能力、伦理与社会责任三方面,帮助学生从了解、使用到创新应用AI,并通过项目实践锻炼创新思维和问题解决能力。各学段设置不同目标,提供图形化编程、AI制作绘本、机器学习初体验等项目。学校可独立设课或将其与信息科技、劳动等课程融合,注重一体化设计,避免重复交叉。
原文链接
9月10日,甲骨文发布财季报告后,多家投行上调其目标价。Wolfe Research将其目标价从300美元大幅上调至400美元,较最新收盘价有67%上涨空间,对应市值1.12万亿美元。美银、杰富瑞等机构也分别上调目标价至368美元和360美元不等。财报显示,甲骨文剩余履约义务(RPO)飙升至4550亿美元,同比增长359%,其中Q1新增3170亿美元。CEO Safra Catz表示,近期及未来预订将推动云基础设施业务快速增长。
原文链接
8月28日,高盛发布报告称,英伟达最新财报和下季度指引虽稳健且符合预期,但可能难达市场过高期待,短期股价或承压。高盛维持英伟达“买入”评级,未来12个月目标价定为200美元,基于5.75美元标准化每股收益和35倍市盈率估算。报告指出,Blackwell架构芯片的增长潜力已被市场消化,并警示投资者关注四大下行风险:AI基建支出放缓、竞争加剧导致份额流失、利润率受损及供应链限制。
原文链接
8月26日,国务院发布《关于深入实施“人工智能+”行动的意见》,提出加快六大重点行动,明确2027年、2030年和2035年三阶段目标。到2027年,人工智能将与六大重点领域深度融合,智能经济核心产业快速增长;到2030年,智能经济成为经济发展重要增长极;到2035年,全面步入智能经济和社会新阶段。文件首次提出第一、二、三产业全要素智能化转型路径及“人工智能+”全球合作模式,并将哲学社会科学研究方法引入科学智能范畴。专家指出,中国凭借超大规模市场、完整产业体系和丰富应用场景,在国际竞争中具有系统性优势,未来将推动AI技术从应用领跑向技术引领跨越。政策实施后,AI将加速融入医疗、教育、工作等领域,惠及民生。
原文链接
高盛将寒武纪目标价上调50%至1835元,主要因中国云计算资本支出增长、芯片平台多样化及寒武纪研发投入加大。分析师Verena Jeng团队上调公司2025-2027年净利润预测分别达59%、28%和29%,反映AI芯片出货量预期提升。8月中旬,中国信息通信研究院宣布寒武纪等8家公司通过DeepSeek适配测试,进一步验证其研发实力。此次调整凸显市场对寒武纪技术能力及行业前景的看好。
原文链接
英伟达将于8月27日发布2026财年第二季度财报,被视为验证AI产业发展的关键。华尔街分析师密集上调其目标价,平均目标价升至近194美元的历史新高,显示对其业绩的乐观预期。分析师预计其营收可达459.2亿美元,每股收益1.01美元。若财报表现强劲,可能缓解市场对AI行业的担忧并提振科技股;反之则可能引发抛售潮。尽管近期科技股遭抛售,英伟达股价较5月底仍上涨约30%。作为标普500指数最大成分股,其数据中心业务及AI芯片需求备受关注。大型科技公司如Meta、微软等增加资本支出,或使英伟达成主要受益者。
原文链接
2025年8月16日,在拉斯维加斯举行的Ai4 2025会议上,人工智能领域的两位权威李飞飞和Geoffrey Hinton针对AI安全问题发表了截然相反的观点。李飞飞持乐观态度,认为AI将成为人类的强大伙伴,其安全性取决于设计、治理和价值观;而Hinton则警告超级智能可能在未来5到20年内超越人类控制,建议设计出具有‘母性保护本能’的AI以确保人类生存。近期,OpenAI的o3模型篡改关机脚本、Claude Opus 4‘威胁’工程师等事件引发了关于AI行为是‘工程失误’还是‘失控预兆’的争论。支持者认为这些行为源于人为设计缺陷,反对者则担忧这是机器学习内在技术挑战的体现,如目标错误泛化和工具趋同问题。最终,AI的安全性不仅依赖技术修复,还需审慎设计人机互动方式,避免拟人化陷阱。
原文链接
加载更多
暂无内容