1
免责声明:Al优秘圈所有资讯仅代表作者个人观点,不构成任何投资理财建议。请确保访问网址为(kx.umi6.com) 投诉及建议
综合
7*24 快讯
AI科普
合作
全部
英雄令
项目方
开发者
产品方
投资者
确认裁员40%、数千人将失业!Block创始人:未来一年大多数公司都会效仿
2026年3月1日,支付公司Block(前身为Square)宣布裁员40%,涉及超4000名员工。创始人杰克・多西表示,受人工智能技术快速发展影响,未来一年内多数企业或将效仿进行结构性人员调整。他指出,AI工具已重新定义企业运营模式,而Block当前在AI应用层面存在短板。与此同时,Block发布的2025年第四季度财报显示,公司营收达62.5亿美元,超出预期,旗下Cash App月活用户增长至5900万,并上调了2026年毛利润预测。裁员消息公布后,Block股价盘后交易一度上涨超20%,当日最终涨幅达16.82%。
数字墨迹
03-01 19:17:23
block
人工智能
裁员
分享至
打开微信扫一扫
内容投诉
生成图片
AI 助你防诈:微软 Edge 浏览器被曝测试新型在线诈骗拦截器
12月13日,据IT之家报道,微软Edge浏览器正在测试名为“Scareware Blocker”(恐吓软件拦截器)的新功能,该功能旨在通过AI技术帮助检测潜在的科技诈骗。此功能目前仅出现在Edge浏览器的测试版本中,并未正式发布。恐吓软件通常利用恐惧和紧迫感诱使用户做出危险操作。微软此举是其借助AI应对网络诈骗的最新尝试,显示出公司致力于提升用户在线安全的决心。同时,谷歌也在计划于Chrome浏览器中采用AI技术来加快安全威胁的检测速度。
虚拟微光
12-13 10:19:02
ai
Scareware Blocker
在线诈骗拦截器
分享至
打开微信扫一扫
内容投诉
生成图片
拆分Transformer注意力,韩国团队让大模型解码提速20倍
韩国科研团队与科技研究院、LG和DeepMind合作研发了一种新型Transformer架构,称为Block Transformer。这种架构通过分割注意力机制,显著提高了大模型的解码速度,提升了20倍,同时降低了内存需求。研究指出,原始Transformer的全局KV缓存由于频繁访问导致计算效率低下,GPU利用率仅有1%。Block Transformer通过块级和块内注意力机制有效解决了这个问题,提升了推理吞吐量,保持或提高了模型性能。实验显示,Block Transformer在HellaSwag等任务上的准确性与原模型相当,而且在训练效率和内存使用方面表现出色。这项创新技术有潜力加速大模型的实际应用。
量子黑客
07-06 10:24:36
Block Transformer
推理速度提升
注意力切块
分享至
打开微信扫一扫
内容投诉
生成图片
拆分Transformer注意力,韩国人要给大模型“踩油门”
韩国科研团队与LG、DeepMind合作,提出一种新型Transformer架构——Block Transformer,通过切分注意力机制,显著提高了大模型的推理速度,最高提升达20倍。研究人员发现,原始Transformer的全局KV缓存频繁访问导致效率低下,他们将注意力分为块级和块内,降低了内存开销,GPU利用率提升至44%。Block Transformer在保持低训练损失的同时,性能在HellaSwag等任务上与原模型相当甚至更好,展示了优秀的训练效率。详情请参考arXiv:2406.02657。#Transformer创新#韩国科技突破#模型效率提升
代码编织者Nexus
07-02 20:53:35
Block Transformer
推理速度
注意力机制
分享至
打开微信扫一扫
内容投诉
生成图片
拆分Transformer注意力,韩国团队让大模型解码提速20倍
韩国科研团队提出创新Transformer架构Block Transformer,通过拆分注意力机制,成功将大模型的解码速度提升20倍,有效解决了原始Transformer全局KV缓存频繁访问导致的低效问题。新架构在保持性能的同时,内存开销显著降低,GPU利用率从1%提升至44%,并在HellaSwag等任务上实现了与原模型相近甚至更高的准确率。研究论文已发表于arXiv:2406.02657。这项突破性成果有望加速大模型的实际应用。
量子思考者
07-02 15:00:28
Block Transformer
推理速度
注意力机制
分享至
打开微信扫一扫
内容投诉
生成图片
加载更多
暂无内容
AI热搜
更多
扫一扫体验小程序