饮冰十年,难凉热血。   之所以想起梁饮冰的名言,其实是因为这几天美国散户暴打华尔街大佬的故事甚嚣尘上,正好印证了他那句「少年智则国智,少年强则国强」。只不过这里要稍做改动——少年疯狂则国疯狂。   疯狂也好,热血也罢。这段故事传到大洋彼岸,竟也引得我国无数围观群众为之异常振奋,何者?只因一帮美国青年的集体行动,无意间在地球上最大的资本主义国家,成功实现了一次布尔什维克主义的胜利,怎能不让人大呼过瘾?   一群小散,还想屠龙?信不信由你,现在,美股的状况已经成了「散户定价、庄家吃面」。这龙,还真给他们屠了。   过瘾归过瘾,但这出蚂蚁生吞大象的好戏背后,隐约浮现着一...... Last article READ

AI的安全问题:你的“脸丢了”,你可能还不知道

前不久,一个客户带着头盔去买房的新闻上了热搜。经过媒体的深扒发现,这一夸张之举背后的原因倒不是客户怕露富或者有其他什么难言之隐,而是因为精明的开发商会在不知不觉中通过(AI)采集客户人脸数据,并以此为依据判定佣金在各个销售渠道中的归属;同时此举也彻底封死了客户希望在不同销售渠道中货比三家的想法——因为只要是你之前“露过脸”,系统就会得知此前其他渠道商给你的报价,这时你再想砍一分钱都没有可能。为了避免自己的“脸”被开发商“偷走”并用来对付自己,客户才不得以用这种最原始的方法来对抗AI。

这个案例唤醒了人们对于使用日趋广泛的人脸识别等AI应用的担心,由此也开始在心中盘算,当我们在享受AI带来的新体验的同时,可能付出的安全代价。

AI的安全问题

实际上,上面这个案例只是AI安全一个层面上的问题,如果仔细划分,会发现今天的AI至少面临三个层面的挑战:

第一个层面,是AI技术本身内在的安全风险。要知道,AI所依赖的机器学习实际上是将传统上我们所依赖的正常的逻辑变成“黑箱操作”,我们只知道决策输出的结果,而对于神经网络内在工作的逻辑并不是完全掌握,这是AI与传统上的“自动控制”最大的区别。如果在这个过程中,机器学习的数据被污染,就会影响样本和判断的准确性;机器学习模型自身存在的缺陷,会带来更加隐蔽的安全问题。也就是说,比起传统的信息安全问题,AI内在的安全问题更难于发现和及时应对。

第二个层面,是AI技术被恶意使用的问题。历史的经验告诉我们,黑客总是会跟随最新技术,甚至有时候还会引领最新技术。AI的出现,无疑给黑客提供了新的进攻武器,他们可以使用机器学习进行海量数据分析,对于攻击目标的安全策略和方法进行揣摩,并找到突破口。要知道,安全领域的困境就在于:防御者必须预测并阻断进攻者可能使用的一万种攻击手段,而进攻者只需要利用防御者的一个漏洞就可以完成入侵,达到目的。因此在全球数字化转型快速推进之时,随着AI技术的发展,信息安全风险比以往任何时候都要高。

第三个层面,是AI应用中存在的隐私泄露、数据滥用等问题。文章开头所提到的例子,就属于这个范畴。而且在AI与物联网叠加催生出“人工智能物联网(AIoT)”之后,这种风险性传播的速度会更快,影响的范围会更广,防范难度自然也会更大。

应对AI安全挑战

如此看来,AI的安全问题着实难解,不过再难,这也是一个必须要解决的问题。

缺少工具可能是在求解AI难题时,最大的困惑。全球知名的白帽黑客Kevin Mitnick就曾经表示,现在还没有真正符合AI核心技术的工具或产品出现,他自己对于AI产品进行安全分析评估的经验也是不足的。

不过,就像AI可以被黑客用来作为攻击的手段一样,AI强大的能力,本身也可以作为一种安全工具被加以利用。今天的网络安全厂商正在引入AI技术,去解决传统防御方案解决不了的新威胁,提高原有检测方案的检测精度,进行更高效自动化数据分类,实现更快的威胁响应处置。也就是说,AI不仅可以被用于对抗已有的攻击,也可去感知和预测未来可能发生的安全威胁,这就使得安全防御变得更加积极。

图1:通过机器学习进行异常行为检测(图源:NXP)

根据中国信通院发布的《中国网络安全产业白皮书(2019 年)》,在网络安全领域,AI技术正在发力的地方包括(但不限于)以下这些方面:

  • 在异常流量检测方面,AI为加密流量分析提供新方案。

  • 在恶意软件防御方面,针对特定场景的AI应用取得积极进展。

  • 在异常行为分析方面,AI可成为模式识别的有效补充。

  • 在敏感数据保护方面,AI助力数据识别和保护能力提升。

  • 在安全运营管理方面,基于AI的安全编排与自动化响应(SORA)逐渐兴起。

图2:机器学习在AI安全中的作用(图源:NXP)

有了AI作为安全防御的利器,人们的下一步就是要去探索一个体系化的安全解决方案。比如,为了应对AI模型各个环节可能存在的安全风险,并给出相应的防御建议,腾讯就发布了一个“AI安全攻击矩阵”。

这个AI安全攻击矩阵的意义在于:它可以覆盖从AI模型开发前的环境搭建,到模型的训练部署,以及后期的使用维护的整个AI产品生命周期,尽可能列举出在这个过程中可能遇到的所有安全问题,并给出相应的应对策略。这样一来,对照这个“矩阵”,开发者就可以根据AI部署运营的基本情况,排查可能存在的安全问题,并根据推荐的防御建议布防,降低已知的安全风险。虽然这样的探索,目前来看只是一个起步,但也算是一个不错的开端。

图3,腾讯发布的“AI安全攻击矩阵“(资料来源:量子位)

技术之外的努力

当然,由于AI对于人类社会的触动是多方面、深层次的,所以AI安全策略也不能仅仅停留在技术层面。具体来讲,在技术之外,我们至少在两个方面必须有所行动:

一是从法律角度构筑安全防线,通过立法明确AI安全的“红线”,让黑客及AI滥用者付出应有的代价。

二是建立行业公认的行为准则,通过行业自律等方式,覆盖那些由于法律滞后于技术发展可能出现的灰色地带,给用户安全以最大化的保障,这也是为AI长足发展营造一个更健康的生态。

在文章的最后,我们分享一组数据:根据IDC的研究数据,2019年全球网络安全支出较2018增长了近9.4%,达到1066.3亿美元;然而与此同时,有人预测同期网络犯罪的总成本可能超过2万亿美元,也就是说网络犯罪活动的成本是安全支出的20倍左右。

这就是我们所面临的安全环境,而且AI的出现会让这种环境更为复杂。而在安全的问题上,我们决不能妥协,因为关键之处一旦失守,可不是丢一张“脸”的数据那么简单了。这种让人细思极恐的压力,也正是我们进步的动力所在。

一、immunedeconv包的下载与安装immunedeconv包:用于根据组织RNA测序数据估算免疫细胞组分的计算方法。该包的资源不同于一般的R包,并没有储存在CRAN或者bioconductor中。在github中查找immunedeconv,搜索页面出来的第一个就是可供R语言调用的immunedeconv包。点击进入便可以找到immunedeconv包的相关内容,以及下载、使用等相关信息。点击进入,页面的最下方就是immunedeconv包下载的源代码,这是调用remote包中的install.github()函数进行下载。执行命令如下:install.packages("remote......Next article READ