点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

开栏语:
在新时代教育强国建设的征程中,高等教育肩负着坚持为党育人、为国育才的使命,承载着民族复兴的希望。重庆正以昂扬姿态,书写教育高质量发展的新篇章。光明网重庆频道推出《光明师享荟》栏目,搭建思想碰撞、经验共享及学术交流的平台,聚焦立德树人实践,弘扬育人使命,展现师者担当。期待与重庆高校师生同行,以教育伟力点亮城市未来,以强国之志汇聚智慧星河,共同谱写中国式现代化的重庆教育篇章。以思想之光,照亮教育强国新征程!
本期受邀分享嘉宾:祝清意,工学博士,教授/博导,重庆邮电大学网络空间安全与信息法学院副院长,中国计算机学会青年科技论坛重庆分论坛候任主席(2026-2027),中国电子学会网络空间安全专委会委员,中国人工智能学会人工智能安全专委会委员。分别于2009年、2014年获得重庆大学计算机科学与技术专业学士和博士学位,澳大利亚迪肯大学访问学者。
今年年初以来,被网友戏称为“龙虾”的开源AI智能体工具OpenClaw持续走红。3月22日,微信官方上线“ClawBot”插件,让用户可直接在聊天界面接入这一工具。从文件管理、邮件收发到视频剪辑、数据处理,OpenClaw凭借“能听懂指令、能动手执行”的特性,被不少人奉为新一代“办公神器”。但与此同时,工业和信息化部、国家互联网应急中心接连发布风险提示,直指其在配置与应用中的安全隐患。
一边是效率升级的智能体验,一边是不容忽视的安全风险,“养龙虾”究竟该如何趋利避害?光明网《光明师享荟》栏目专访重庆邮电大学网络空间安全与信息法学院副院长祝清意,拆解AI智能体的技术本质、价值边界与安全防线。
厘清本质:大模型是“大脑”,它是“手脚”
在大众眼中,OpenClaw的神奇之处在于“能落地执行”,而这正是它与传统大模型的核心差异。祝清意用一个通俗的比喻厘清了二者的关系:“大模型相当于大脑,只会思考、给出文字解决方案,却没有执行的‘手脚’;OpenClaw本身没有智能,它通过与大模型交互,获取决策指令后,再调用各类工具完成操作,就相当于AI的‘手脚’。”
传统大模型的核心逻辑是“词语接龙”,根据提示词预测并输出文本内容,却无法完成实际操作;而OpenClaw搭建了大模型与现实操作的桥梁,它将用户需求转化为长提示词传递给大模型,再根据大模型输出的执行流程,调用工具完成影片剪辑、邮件收发、文件整理等具体任务,实现了从“告诉用户怎么做”到“直接帮用户做完”的跨越。
价值释放:从效率工具到创业新动能
“它的核心定位,相当于个人智能助手。”祝清意表示, OpenClaw最直接的价值,是帮用户完成重复性、低挑战度的工作,大幅提升办公与创作效率。相较于用户直接与大模型对话,OpenClaw的长提示词模式能整合用户的个人偏好、操作习惯、可用工具等信息,输出的结果更贴合个性化需求,记忆功能也让交互体验更具连贯性。
与此同时,这一工具也大幅降低了创业的门槛。祝清意提到,当下兴起的“一人公司”模式,正是依托AI智能体实现了低成本试错。无需庞大的团队和场地,仅靠电脑和AI工具,就能完成短视频创作、直播切片、新媒体运营等多项工作,在商业模式创新上打开了广阔空间,而各地针对AI生态的扶持政策,也让这种轻量化创业模式拥有了更多可能性。
风险警示:四大安全隐患不容忽视
热度之下,安全风险同样不容小觑。祝清意结合技术特性,梳理了“养龙虾”过程中的需要注意的四大核心风险。
其一,是配置与权限风险。OpenClaw的操作需要开放电脑文件、软件调用等多项权限,若配置不当或盲目开放高权限,不仅可能出现误删重要文件、操作执行偏差等问题,还会给恶意攻击留下可乘之机。
其二,是供应链安全风险。OpenClaw的能力边界依赖第三方工具拓展,而第三方工具的开发者资质、代码安全性难以完全把控,很可能成为安全漏洞的入口。
其三,是数据泄露风险。OpenClaw会在本地存储用户的操作日志、个人偏好、指令信息等敏感内容,一旦设备被攻击,这些数据就存在泄露风险;而与大模型的频繁交互,也可能导致个人隐私数据通过提示词传递外泄。
其四,是大模型决策的不确定性风险。OpenClaw的执行依赖大模型的决策,而大模型的输出并非100%准确,一旦出现决策偏差,就可能导致执行结果与用户预期南辕北辙,甚至造成不可逆的损失。
安全指南:这样用“虾”更安全
对于普通用户而言,不必因风险过度恐慌,通过科学的使用方式,就能有效规避绝大多数隐患。祝清意给出了具体的安全使用指引。
首先,要通过正规渠道下载安装工具,优先选择官网以及大厂推出的适配版本,避免从非正规站点获取安装包;其次,建议采用隔离部署模式,将工具安装在闲置设备、虚拟机或局域网内,与个人敏感数据、核心工作文件做物理或逻辑隔离;第三,坚持最小权限原则,不盲目开放不必要的高权限,谨慎接入金融、政务等敏感系统。
同时,关键操作必须坚持“人工最终确认”,尤其是文件删除、转账交易、信息群发等操作,务必先核对执行范围,确认无误后再允许工具执行;使用第三方工具时,要做好来源核验与安全检测,及时更新工具版本,修复已知安全漏洞。有条件的用户和企业,可采用本地部署大模型+OpenClaw的模式,将模型与数据完全掌控在自己手中,从根源上降低隐私泄露风险。
行业未来:人机协同,人始终是核心
面对“AI会不会取代人”的普遍焦虑,祝清意表示,目前大模型与AI智能体更擅长基于现有数据做归纳总结,很难实现突破性的创新,而这正是人的核心价值所在。
“对于职场人来说,最核心的能力有两个:一是提问的能力,二是判断的能力。”祝清意坦言,AI时代,与其焦虑被取代,不如学会驾驭工具。祝清意认为,提示词的本质是精准提出问题,而对AI输出结果的鉴别、判断与优化,考验的是人的专业功底、审美能力与创新思维。
为了适配AI时代的行业需求,重庆邮电大学网络空间安全与信息法学院已形成“网络安全+法学”的跨学科培养模式,将人工智能融入课程体系,同时通过产教融合邀请行业一线专家授课,培养既懂技术、又懂安全与法律的复合型人才。
技术的发展始终是机遇与挑战并存。以OpenClaw为代表的AI智能体,打开了人机协同的全新想象空间,只有守住安全的底线,才能让技术真正释放价值。唯有以人的判断力为核心,理性使用、科学防护,才能在AI浪潮中站稳脚跟,真正成为技术的主人。
(肖依佩)
