最近,有两个与AI“傻瓜”相关的热门话题引起了很多人的思考和担忧。首先,演员王劲松形象被AI深度篡改,制作诈骗财富视频。视频太真实了,他自己也感叹:“连我的家人都分不清。”第二个是复旦大学肖阳华教授团队开发的人工智能体。您可以自主在朋友圈发布状态,并在评论区互动。自然,朋友们纷纷留言:“请证明你真的是肖大师。”一方面是利用AI作恶,“冒充别人”。一方面,这是一场用AI“代替自己”的学术展览。这两者看似矛盾,但都会让你周围的人突然无法信任对方,确认你就是你自己。如果你的脸、你的声音甚至你的行为模式都被人工智能准确地再现或再现,那么社会赖以建立的信任基础也将面临前所未有的崩溃风险。进一步看,这两个“哑巴”的影响力不同,反应逻辑也不同。假人工智能视频是人为设计的骗局,其危害在于“污染”客观信息层。这背后是治理链的彻底延迟。从根本上来说,尽管法律规定生成的内容必须带有AI标识,但导演与灰色产业之间的猫鼠游戏永远不会停止,绕过灰色产业的方法也有无穷无尽。在传播过程中,面对大量虚假内容的制造,平台的分发和审核机制存在诸多缺陷,“消除后”无法达到“制造前”的速度。至于惩罚,正如王劲松所说,法律对犯罪分子的惩罚“较轻”,迫切需要加强监管的震慑作用。同时,人工智能代理指出了更深层次和前沿的挑战,这些挑战开始侵入人们意见和情感表达的互动层面。智能代理独立规划并完成Moment交互动作链。这是因为人工智能能力从静态模拟转向动态代理。说明你跳了。问题是:人工智能主体能否被赋予某种法律主体地位?该行为的道德界限在哪里?如果发生伤害谁负责?这是对现有社会运作规则的新挑战。人工智能可以模仿甚至取代我们人类的一些能力。我们不需要技术来减慢或停止。建立超越“堵漏”的被动响应心态的一个关键解决方案是为不同的人工智能应用领域制定明确的“道路规则”。对于邪恶、欺骗性的人工智能“傻瓜”,必须严厉打击,增加违法成本。人工智能前沿创新必须聚焦及早界定权利和责任,并在开发早期积极纳入安全和道德评估。在人工智能时代,“证明你是谁”的日常荒谬不可能永远持续下去。来源:央视网