在这个日新月异的数字化时代,人工智能已经成为一股不可阻挡的潮流,以前所未有的速度渗透到我们工作和生活的方方面面。
工作中,AI创作工具能高效地创作出高质量的文案、设计图甚至是编写程序代码;生活中,AI换脸技术在娱乐、影视等领域大放异彩,精致的“脸部合成重塑”让人真假难辨……
然而,这些酷炫科技的背后,却存在着一个个不容忽视的“泄密陷阱”。比如,AI模型会记忆你的使用记录,并可能在未来将一些数据“另存”给他人;又比如,AI技术可以生成以假乱真的“作品”,一旦这些“作品”被不法分子利用,将造成不可估量的损失……
涉密信息被“云共享”
【案例一】:2023年3月,三星公司在引入ChatGPT后,短时间内便曝出多起机密资料外泄事件。经调查,泄密事件是由三星员工直接将企业机密信息以提问的方式输入到ChatGPT中所引起的,该做法导致三星公司半导体设备测量资料、源代码、产品良率等机密内容进入学习数据库,内部信息瞬间外泄,且无法收回。
【案例二】:2024年8月,国安部发布紧急提醒,指出部分涉密人员在起草涉密材料时,为节省工作时间,违规将涉密素材和涉密文件内容输入AI写作小程序生成文章,造成国家秘密泄露。事实上,AI小程序会自动收集用户输入的信息内容以供自主学习,这些信息一旦进入数据库就很容易被境外间谍情报机关窃取,危害国家安全和利益。
AI创作工具在某些情况下就像一个大型的“云储存”空间,当你习惯于在其中录入工作资料来帮助完成创作时,各个环节存在的安全漏洞,都会导致你输入的机密信息在不经意间“共享”给大家。
脸部特征被“不法利用”
【案例一】:2024年7月,一宗使用“AI换脸”技术破解平台认证非法获取计算机信息系统数据案在广州南沙宣判。被告人利用“AI换脸”技术,将个人肖像照片加工成人脸识别数据,伪造被识别人眨眼、张嘴、点头等组合动作视频,顺利通过人脸实名认证,登录某服务平台系统个人账户,将账户里的个人信息出售给他人以牟取非法利益。
【案例二】:无独有偶,2024年9月,杭州市公安局网警通报了一起典型案例。在此案中,犯罪团伙利用AI换脸技术,简单输入照片并发送文字指令,就能生成普通人脸认证功能所需要的人像视频,从而突破平台人脸认证,登录他人的账号,定向获取公民信息,将其出售或者非法提供给他人从而获利。
AI换脸技术可以达到以假乱真的效果。近些年,利用换脸技术实施网络诈骗的案例并不少见。一些公民的照片被不法分子利用,经过“换脸”,再结合个人数据资料,不法分子就能轻易突破账号认证防线,窃取个人隐私,导致受害者蒙受不必要的损失。
保密警示
我们在享受高速发展的AI技术给工作生活带来便利的同时,也应警惕其存在的泄密风险隐患。对此,“保密观”提示大家:
在工作中,注意保护涉密信息,切忌为了提高效率而忽视保密要求,随意将内部敏感资料当做原始素材录入AI创作工具,造成机密信息外泄。
在生活中,注意保护个人隐私,给社交账号加上“防护罩”,给自己的聊天内容“打上码”,切勿将自己的私人照片、个人资料随意上传,以免被不法分子利用。
来源:保密观