Tom Snyder:谁应该监管人工智能——政府还是大型科技公司?

   日期:2024-09-05     来源:本站    作者:admin    浏览:112    

  

  

  上周,我们看到了两条主要的头条新闻,宣传人工智能的未来将是安全可靠的。首先是苹果公司宣布将自愿遵守拜登总统关于安全人工智能的行政命令。几天后,欧盟通过了期待已久的《人工智能法案》,制定了广泛的人工智能法规。让我们更深入地了解这些公告,以及美国和欧盟在应对人工智能革命的方式上的差异,以及它的所有风险和好处。

  大约一个月前,苹果发布了苹果智能(Apple Intelligence)测试版,这是一套新的人工智能工具,适用于整个苹果笔记本电脑、平板电脑和智能手机生态系统。迟到总比不到好,苹果加入了微软、谷歌、meta和亚马逊等主要科技同行的行列,此前宣布自愿遵守去年10月的行政命令。包括Open AI、Anthropic和Inflection在内的一些冉冉升起的人工智能公司也表示有意遵守。

  人工智能工具被吹捧为足够轻量,可以完全在边缘运行——简单地说就是在手机或笔记本电脑上运行。对于需要云计算的更复杂的查询,Apple声称用户查询仅限于Apple私有云服务器,因此用户隐私和数据安全得到安全维护和加密。在他们的网站上,“拥有私有云计算的苹果智能为人工智能的隐私设定了新的标准,解锁了用户可以信任的智能。”

  大胆的宣称。将所有苹果用户数据“本地”保存在苹果服务器上,确实提供了一种与苹果外部世界隔绝的安全级别。但没有那么大胆宣称的是,它几乎没有保护你的数据不受苹果公司的侵害。多年来,大型科技公司一直在构建产品套件,就是为了这个原因——把你所有的数据放到他们的专有服务器上。

  例如,如果苹果比微软或谷歌更了解你,那么他们可以为你提供更好的(人工智能定制)服务,进一步加强他们对你的控制,让你留在他们的平台上。你有没有尝试过离开苹果的服务生态系统?这是非常困难的。人工智能将使客户锁定更加强烈。

  科技巨头自愿遵守拜登的行政命令是什么意思?事实是,这并没有多大意义。首先让我们考虑一下《行政条例》涵盖了哪些内容。

  ●它鼓励达成共识的行业标准,但不明确推荐任何标准。对于工业界来说,承诺在未来的讨论中占有一席之地是很容易的。

  它强调安全、安保和道德方面的考虑,而没有在这些领域提出或定义具体的规定。公司在满足空洞的要求的情况下获得了出色的公关。

  ●依靠联邦机构建立自己的标准,与各自领域的用例相关。好消息是,《行政令》赋予各机构采购和拨款的影响力,以引导资金流向表现良好的组织。经济激励就足够了吗?

  ●不暗示对违规行为有任何明确的惩罚,而是依赖于公司的自我管理。狐狸在守鸡舍。

  ●主张澄清人工智能培训和开发的版权和知识产权界限,而不实际施加任何要求。我们相信,行业将披露,如果他们正在创建基于专有内容的衍生作品。我们看到艺术家们已经在他们的新作品中添加了“毒药”来捕捉人工智能的不法行为,早期迹象表明,很少有组织的行为符合道德规范。这是有意为之还是偶然的,因为公司正在研究如何将受保护的数据与未受保护的数据区分开来,这是一个悬而未决的问题。

  一般来说,美国的行政命令是一个起点,只是为了开启一场过于政治化的对话(尽管它与政治几乎没有任何关系),而不是在这个时候采取具体行动。大公司在没有真正承诺任何行为改变或不合规风险的情况下,获得了相当多的公共关系利益。一切都是自愿的,没有什么是必须的。对我来说,苹果直到现在才宣布他们的遵守计划并不奇怪。这与他们围绕最新人工智能产品推出的以安全为重点的营销活动非常契合。

  答案是,人工智能法案要强大得多。虽然还有很长的路要走,但人工智能法案有一些强有力的初步规定。这些措施能否经受住未来某些法律挑战,还有待观察。以下是人工智能法案的要点。

  ●在所有欧盟成员国和所有市场领域建立全面的监管框架。这将导致监管的一致性,这是欧盟做法的一个极其重要的好处。标准化倾向于以积极的方式加速工业发展(尤其是对小企业),并减少特殊利益游说的切入点。美国在许多机构之间的分散做法,可能会导致未来的监管高度分散,且针对特定行业(这必然会导致漏洞)。

  确定人工智能风险等级类别——不可接受、高风险和最低/无风险——以减轻对健康、安全和基本权利的风险。监管在各个风险级别之间得到了适当的分配,为行业和监管机构创造了更多的清晰度。高风险应用受到严格监管。

  ●禁止在公共场所使用远程生物识别技术。这一条款明确将公众利益置于公司利益之上。这是在保护个人权利和避免政府或企业监视国家方面迈出的重要一步(我最近在第1部分、第2部分和第3部分写过这个话题)。

  ●建立明确的法律框架,对违规行为处以重罚。与美国的做法不同,欧盟正在制定行业条款。在美国,我们让企业走在前面,相信它们会守规矩。

  ●要求企业全面披露人工智能培训中使用的所有受保护作品和数据。这为法律纠纷和未经授权使用受版权保护的材料的经济处罚打开了大门。

  ●强调在部署AI之前和之后进行持续和严格测试的重要性。

  ●清楚地认识到所有网络系统都需要“设计安全”。网络安全必须从一开始就与人工智能相结合。

  简而言之,欧盟仍然是保护消费者隐私的全球领导者。2016年《通用数据保护权利法案》(General Data Protection Rights Act)设定的文化(到2018年将完全可执行)在新的《人工智能法案》中得到延续和扩展。

  与此同时,在美国,我们正在给予企业自我监管的自由。这对大型科技公司来说是件好事,因为它们对未来的监管规定有着巨大的影响力(游说),这些规定是为它们自己的产品和偏好量身定制的。这让规模较小的公司面临风险,它们只能希望自己开发的工具能够在分散的监管环境中生存下来。

  在缺乏联邦监管的情况下,我预计我们将看到各州制定自己的各州法规,以填补明显的监管空白。这使得小公司很难开发出在任何地方使用都一致的新产品。一家大公司或许能够经受住美国各地偶尔的法律挑战。但小公司很少能做到。

  对于任何想要在国际上竞争的人来说,最好的办法就是跟随欧洲的脚步,按照欧盟的规定发展。你可以侥幸逃脱很多,也许更容易进入美国市场。但通过这样做,大多数公司将利润置于消费者隐私之上——即使他们吹嘘自己多么严格地遵守了行政命令。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行