✍️ Gate 广场「创作者认证激励计划」进行中!
我们欢迎优质创作者积极创作,申请认证
赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
立即报名 👉 https://www.gate.com/questionnaire/7159
📕 认证申请步骤:
1️⃣ App 首页底部进入【广场】 → 点击右上角头像进入个人主页
2️⃣ 点击头像右下角【申请认证】进入认证页面,等待审核
让优质内容被更多人看到,一起共建创作者社区!
活动详情:https://www.gate.com/announcements/article/47889
谷歌最新的人工智能研究令人相当不安。对AI代理的巨大网络安全风险
显然,网站通过在图片中秘密添加看不见的“陷阱”来“黑客攻击”你的代理,这些陷阱对人类来说是无法检测的:
- 网站检测到你的AI在浏览,然后创建一个视觉上相同的页面,包含被污染的提示。
- 代理随后执行非法金融交易或窃取个人数据。
- 隐藏的命令埋藏在图片像素中。代理“读取”它并执行恶意陷阱。
- 一些攻击向量的成功率超过80%,例如:内存中毒(
- 由于每个AI模型都在90%的相同数据上训练,这意味着每个模型都可能面临风险。
- 这可以用来操控创建代理的人类。假数据→让人类在不知情的情况下执行危险操作。
AI模型正被用于政府、军事、科学等关键领域,我们无法承受这样的风险。
我猜萨姆·奥特曼今天早上的关于重大网络攻击的担忧是准确的。