“用魔法打败魔法” AI时代如何构建数据安全生态

来自版块 问答
1140
0
AI时代,数据安全治理需要做到全程管控。在一些专家看来,“如果靠已往一些成熟的技能去办理现在的问题是很难的,本日只能通过‘用AI对抗AI’的方式,才气办理内容安全的问题。”
——————————
    美国一项新提出的法案,进一步引发了人们对大模型时代数据安全问题的关注。
    克日,一名美国众议院议员提出了一项《生成式人工智能版权披露法案(Generative AI Copyright Disclosure Act)》,该法案要求企业在推出人工智能系统之前要告知政府,同时还要列出用于构建或更改该系统训练数据集的所有受版权掩护的作品。这则法案如被通过,将推动美国人工智能公司在模型训练数据的使用上更加透明。
    无独有偶,在一个多月前欧洲议会投票通过并批准的《人工智能法案(Artificial Intelligence Act)》(以下简称《法案》)中,也明确要求对用于训练、测试和验证人工智能工具的数据举行适当的数据治理。
    “比年来,各国纷纷出台了涉及人工智能的立法和政策,大多数国家在制定相关法规时都接纳了审慎的态度,制止过分限制人工智能的发展,以免阻碍创新和进步,这彰显了国际社会对数据安全治理的重视。”在日前举行的“2024中关村(4.330, -0.01, -0.23%)论坛-数据安全治理与发展论坛”上,香港科技大学首席副校长、英国皇家工程院院士郭毅可说。
    当前,以人工智能(AI)为代表的新技能应用成为发展新质生产力的重要引擎,随之而来的数据安全治理与发展也备受关注。2024中关村论坛(以下简称“论坛”)期间,举行了多场与AI相关的论坛运动,“AI时代的数据安全治理”也成为热点话题,不少国内外专家学者以及业界人士在论坛上交换前瞻理念、分享研究结果,深化前沿范畴数据安全治理效能。
    数据安全治理新形势
    AI时代,“数据”是一个不得不提的关键词。
    “数据对于AI的进步非常重要。”在2024中关村论坛年会开幕式上,硅谷人工智能研究院院长皮埃罗·斯加鲁菲说。他提到,从1997年IBM的“深蓝”电脑击败其时的国际象棋世界冠军卡斯帕罗夫,到2016年谷歌人工智能步伐AlphaGo战胜韩国围棋世界冠军李世石,再到如今OpenAI的GPT横空出世……AI技能快速发展背后,主要的驱动因素就是大量的数据。
    但随着AI技能日新月异的变革,尤其是生成式人工智能(AIGC)的快速发展,其性能在优化的同时也放大了数据安全风险,其大概引发的代价偏见、隐私泄露、虚假信息等问题引起了大众的担心。“现在许多诊断是由AI来做的,好比你要将GPT用于诊断疾病,昨们放心吗?许多时候是不放心的。”皮埃罗·斯加鲁菲说。
    在清华大学盘算机科学与技能系传授、人工智能研究院底子模型研究中心副主任黄民烈看来,AIGC的出现,使得现在的数据安全治理与已往相比有很大的差别。他表现,AIGC能通过训练去组合、生成一些在已往的语料库中根本没有出现过的新内容,这些内容大概是有害的。
    “在生成式人工智能(AIGC)时代,昨们在数据安全层面,面对的是不停组合和创造新的数据安全风险的问题,彻底办理这种风险,需要算法和工具的支撑,而不是靠人,大概靠一些静态的方法去做相对固定的检测。”黄民烈说,可以去研究制定一些有针对性的对抗和攻击方法,好比事先让算法发现模型的毛病和风险;也可以使用算法追踪模型存在的风险,再有针对性地制定安全手段。
    如今,除了雷同ChatGPT的通用大模型,专注某一垂直范畴的行业大模型也层出不穷。奇安信(30.900, -0.24, -0.77%)团体副总裁刘前伟恒久关注行业大模型的数据安全治理问题,他观察到,许多行业大模型厂商都有一个普遍的担心:模型预训练的语料会不会被其他人窃取?
    他表明说,行业大模型在做预训练时,被“喂”的数据大多是行业知识,“这些语料大概是差别企业最有竞争力的一些数据。”如果存在毛病,大概导致这些焦点的数据资产被泄暴露去,“这是在通用大模型里,昨们已往没有特别关注的一点”。
    同时,作为通用大模型的使用者,许多人都会问一个问题:当我去问大模型问题时,会不会造成商业秘密、个人信息的泄露。刘前伟在论坛上也提出了上述疑问。
    对于如何办理上述问题,刘前伟也同意黄民烈传授的观点。“如果靠已往一些成熟的技能去办理现在的问题是很难的,本日只能通过‘用AI对抗AI’的方式,才气办理内容安全的问题。”
    构建安全可信的数据治理生态
    2023年5月,包罗“ChatGPT之父”山姆·奥特曼(Sam Altman)在内350位AI范畴权威人士签署了一封联名公开信,信中写道:“应将缓解AI导致的灭尽风险,与其他社会规模风险(如大盛行病和核战争)等同重视,作为全球优先事项。”
    “人工智能凸显了数据的重要性,再创造一个全球性的治理框架,创建互信是最重要的因素。”新加坡资讯通信媒体发展局局长柳俊泓在论坛发言中指出,对数据和AI的信任,是在数字时代平衡掩护和创新的底子。
    论坛期间,不少专家在讨论中提到了一个词——可信AI,该词的焦点就是AI大模型的安全问题。“昨们必须认识到数据安全是永远的命题,一定要‘安全可信’。”中国工程院院士沈昌祥在论坛上表现,要用主动免疫可信盘算筑牢人工智能安全防线。
    在他看来,数据安全治理需要做到全程管控,实现六个“不”:首先让打击者“进不去”,进去后“拿不到”数据,纵然打击者拿到数据也白拿,因为数据被加密“看不懂”,而且系统带有自动免疫功能,让打击者“改不了”数据。同时,需要包管设备“瘫不了”,能在发现故障后实时接纳步伐确保稳定运行,最后是确保攻击行为可追溯“赖不掉”。
    “到达这六个‘不’的效果,才气使得数据安全治理到达有效的目标。”沈昌祥先容,颠末30多年的发展,我国已经构建了比力完整的新型财产空间。他表现,目前,中国已经具备可信盘算功能的国产CPU,嵌入式可信芯片及可信根,具备可信盘算3.0技能的设备。
    除了可信盘算,一系列前沿技能也为构建安全可信的数据治理生态提供支持。香港科技大学首席副校长、英国皇家工程院院士郭毅可认为,在增强数据安全上,区块链和量子暗码学等技能有较大应用前景。
    “区块链有透明和不可更改的技能特性。”郭毅可说,将区块链技能应用在数据安全治理范畴,能在确保数据完整性的同时,进一步低落数据授权风险和数据窜改风险。他还提到,可以通过数据匿名化技能、用户同意和隐私设计规则,以及实施数据分类、访问控制和加密等方法,掩护知识产权和防止未经授权的数据披露。
    在郭毅可看来,加密技能能掩护数据在静止和传输过程中的安全。别的,还可以使用差分隐私、数据屏蔽等匿名化技能来删除个人身份信息,以确保数据的秘密性,同时保存其对AI模型训练的有用性。
    “用魔法(即AI技能)打败魔法”,这是刘前伟提出的AI时代数据安全治理的一大出路。在论坛上关于AI数据安全治理相关技能路径的讨论中,隐私盘算、联邦学习等被反复提及。
    除了问题,AIGC也为数据治理提供了新的、更有效的手段。欧洲科学院院士、清华大学人工智能研究院常务副院长孙茂松提到,现在数据内里有许多隐私问题,但可以用生成式人工智能(AIGC)生成符合真实情况的数据,同时规避掉用户真实的隐私数据。“所以,实际上生成式人工智能对昨们数据治理也有非常重要的正面推动作用。”
    创新AI羁系机制
    “数据安全治理是人工智能和数字转型时代一个至关重要且不停演进的议题。”郭毅可说,人工智能时代,需要在掩护数据隐私和敏感信息的同时,创建国际机构框架和法规来规范数据安全。
    比年来,包罗英国的《支持创新的人工智能羁系规则》、欧盟的《人工智能法案》在内,多个国家和地域连续出台了相关的政策和法律,规范人工智能的发展,其中有不少内容与数据安全治理有关。
    2023年8月15日,全球第一部关于生成式人工智能治理的专门法律规范《生成式人工智能服务管理暂行办法》(以下简称《办法》)在我国正式施行。中国互联网协会研究中心副主任吴沈括认为,《办法》着眼生成式人工智能服务语境下的数据治理,引入了多项专门规范,对于构建面向AI时代的数据治理新生态具有重要的制度指引意义。
    在探索人工智能可控发展过程中,羁系沙盒机制是一个创新手段。羁系沙盒是指在风险可控的前提下,通过设立限制性条件和制定风险管控步伐,允许创新产物技能服务或商业模式在真实市场情况中,以真实用户为对象举行深度测试的一种机制。欧盟《人工智能法案》明确要求其成员国要创建人工智能羁系沙盒。目前,挪威、西班牙等国已开始羁系沙盒相关工作。
    柳俊泓提到,目前有许多技能、政策,能让企业从消费者数据会合得到代价,同时也可以确保消费者的数据集得到掩护。他认为接下来应当创建羁系沙盒,在其中使用而且开辟这些技能和政策,从而能在最大化的使用数据的同时,保障数据安全。
    论坛期间,“北京人工智能数据训练基地羁系沙盒”正式发布,这是全国首例人工智能范畴羁系沙盒。北京市经济和信息化局副局长毛东军表现,在管理上,使用羁系沙盒管理机制,能资助企业在正当合规的范围内规避数据风险;在技能上,通过数据加密、脱敏技能、云桌面操纵、安全管理等先进技能,可以为模型企业和数据企业提供底子保障,“真正实现数据的可用、可见、不可得,制止数据泄露等高风险事件”。
    从出台政策、法律,到使用羁系沙盒举行制度和技能实验,其目的都是推动构建人工智能(AI)时代的数据安全治理新生态。
    当下,给人工智能装“刹车”成为行业内讨论的热门话题,在论坛上也不鲜见。“‘刹车’就是针对技能性风险的治理体系。”清华大学苏世民书院院长薛澜在论坛担当记者采访时表现,构建治理体系的目的,就是来规制滥用、误用和恶用人工智能的行为。
    薛澜先容,我国的人工智能治理体系共有三层,第一层为《新一代人工智能伦理规范》等所有社会主体都要遵守的广泛性底子性原则;第二层为针对人工智能详细范畴的详细法律法规,好比《办法》;第三层则是鼓励企业增强内部机制建立,好比建立伦理委员会等。
    如果“刹车”安装不到位,要如何应对?薛澜说:“昨们特别鼓励企业增强自身的机制建立,这非常关键。别的一点,也需要全社会的公众监视。”
中青报·中青网见习记者 贾骥业 记者 朱彩云  泉源:中国青年报
          2024年04月30日          06          版
                                                                                                                                                                                                                                                                                                    
                海量资讯、精准解读,尽在新浪财经APP
            
                                                                                                                               

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x

使用道具 举报

全部评论 0

热文

所属版块

您需要登录后才可以回帖 立即登录
说说你的想法......
0
0
0
返回顶部