当“龙虾”(OpenClaw)席卷网络,多方担忧其安全性之际,又被曝出生成式引擎优化(GEO)给AI(人工智能)大模型“投毒”。目前,AI风险正以更隐蔽、更具破坏性的方式出现。
你以为AI是无所不知的“数字大脑”?其实它更一像条“贪吃蛇”——不管信息是真是假,只要喂得多、格式对,它就会当成“标准答案”记下来。
在AI大模型里“喂料”“投毒”,实现商业目的;操控AI大模型,在各大互联网账号上“发稿”……这些触碰多条法律红线的行为已经严重扰乱正常市场经济秩序,危害人工智能信息系统安全。
如何为AI技术装上“安全阀”、扎紧安全篱笆,成为AI时代必须直面的命题。首先要为技术创新划定安全边界、筑牢可持续发展的根基;其次,要构建“多方协同”的治理体系;最后,应建立快捷的风险监测与预警机制,如各部门对“龙虾”发布安全预警就是防患于未然的典型举措。 津云网媒中心供稿
