这半个月,ChatGPT引发的浪潮冲击世界,风头无两,已经不需赘言。
英伟达CEO黄仁勋赞叹说,ChatGPT的出现,是AI界的“iPhone时刻”,势必改变我们的现实生活。这一次变革中,获益最多的无疑是开发公司OpenAI,以及联手OpenAI的微软。
3月24日,OpenAI CEO奥特曼还在“深情”发推,“祝GPT 4十天生日快乐!”像对自己的孩子似的,甚至等不到“满月”庆祝。
但他当时不会想到,在“这个孩子”出生的月里,就会遭遇禁令。
当地时间3月31日,意大利个人数据保护局宣布,将暂时封锁意大利境内访问ChatGPT的途径,同时,审查OpenAI在最近一次网络安全事件中收集的个人信息等问题。
突如其来的监管动作,让意大利成为全球第一个因隐私考虑,禁用了ChatGPT的国家。
几小时后,OpenAI CEO山姆·奥特曼委屈巴巴地回应:“我们当然遵从意大利政府,并已停止在意大利使用ChatGPT。尽管我们认为遵守了所有的隐私法。”
人工智能与“人的智能”,终于狭路相逢了。
01
凭什么
在这全球第一张对ChatGPT的禁令中,意大利数据保护局列出了3项指控。
一是,3月20日ChatGPT平台出现了用户对话数据和付款服务支付信息丢失。
二是,平台没有就收集处理用户信息进行告知。
三是,由于无法验证用户的年龄,ChatGPT“让未成年人接触到与发育程度和意识相比,绝对不合适的答案”。
北京师范大学互联网发展研究院法学教授吴沈括告诉南风窗,第一个情况,通俗来讲便是发生了数据泄露。
“而数据泄露,是意大利个人信息保护法等法律法规中非常重要的非法场景。”即使科技公司事后对此解释说明,也不见得能产生抗辩效力。
“因为它没有及时在数据泄露情时对外通告。” 吴沈括说。
当时,Open AI的通告晚了5天。3月25日,该公司发布道歉声明,称3月20日ChatGPT出现漏洞,临时下线。约有1.2%的ChatGPT Plus用户数据被泄露。
“在ChatGPT下线前的几个小时,一些用户有可能看到另一在线用户的姓名、邮箱地址、付款地址、信用卡号后四位等。完整的信用卡号码在任何时候都没暴露。” Open AI对外表示,公司随后修复了这一漏洞。
仅仅以一次漏洞为契机,就禁用全球流行的AI工具,意大利是不是太过责难?
吴沈括介绍,发出禁令的意大利个人数据保护局,并不隶属政府机关,“这是一个独立的数据保护机关,由议会任命”。
而对于个人数据保护,意大利向来严格,“它有一个比较严格的传统,而且敢于执法。”比如,只有在意大利,谷歌的高管受过刑事处罚,“在其他国家都没有碰到过这一级别的处罚”。
不过,全球首张“禁令”并非没有回旋余地。意大利个人数据保护局给了OpenAI 20天时间,要求说明它将如何解决上述隐患。
否则,意大利将对Open AI处以 2000 万欧元(2170 万美元)或高达年收入4% 的罚款。”
吴沈括解释,这一处罚办法依据欧洲议会2016年通过的《一般数据保护条例》的明文规定。“特别是4%年营业额这一条处罚。逻辑就是公司没有遵守、贯彻、实现监管的要求。”
02
天然的矛盾
需要注意的是,意大利的这次出手,只是一个首发信号。
“意大利在欧洲的数据保护环境当中,具有非常大的权重。无论是它的监管机制、监管政策,还是重要人物,意大利都(在欧洲)占据非常高的比重,包括在欧盟决策层,有非常多的意大利的权威人士和高层官员存在。”吴沈括表示。
这意味着,对ChatGPT一类工具的高密度、高强度监管措施,可能正在路上。
近一周,已有多个第三方机构在呼吁,禁用ChatGPT。欧洲消费者权益联盟(BEUC)呼吁,欧盟和其他政府机构要彻查ChatGPT和类似的聊天机器人。
从数据保护角度而言,ChatGPT的底层技术天然与其存在矛盾。
GPT背后是大语言模型。Open AI 官方曾披露,GPT-3有1750亿参数,该大模型使用的是互联网的文本数据库。
这其中,共计有高达 570GB 的数据,来源包括书籍、网络文本、维基百科、个人问答等。更精确地说,系统输入了 3000 亿个单词,训练这一人工智能模型。
放在强调个人数据保护和“被遗忘权”的欧洲,数据量惊人的GPT模型是一种天然僭越。
吴沈括分析,“GhatGPT的运行逻辑,在本质上跟GDPR的以当事人知情同意控制权为核心的数据保护思路,很不一样。”
一个在社交媒体流行的观点是,OpenAI根本没想过为从互联网上抓取的数据付费。掌握数据的个人、网站所有者和公司没有获得收入,也不知道数据被采用了。但Open AI利用这些数据,成长为比2021年估值高一倍多的巨头。
全球监管层面临的矛盾十分相似:ChatGPT横空出世,带动AI大模型的发展,而人类的各项政策法规都无法跟上。
即使走在数据保护全球最前沿的欧洲,欧盟也还在制定世界上第一部人工智能的立法,距离法案生效还需要数年。
03
“消灭人的AI不该造出来”
技术发展与政府监管之间,“相爱相杀”的关系并不奇怪。
对于ChatGPT的讨论中,反常的一幕是,对ChatGPT前所未有的抵制竟同时出现在科技圈。
这周,一封多位知名人物签署的联名信备受瞩目。
在曝光但尚未证实的名单中,包括马斯克、图灵奖得主Yoshua Bengio、Stability AI首席执行官Emad Mostaque、纽约大学教授马库斯,以及《人类简史》作者Yuval Noah Harari。
他们表示,目前具有和人类竞争智能的AI系统,可能对社会和人类构成深远的风险。因此,“应停用六个月,停止再发展出GPT-5的大模型”。
在他们看来,GPT-4展现出的能力表明,当下的AI不再风险可控了。比起各大巨头相继押注大模型,科技公司现阶段更该联合政府,开发强大的AI管理系统。
“系统至少应该包括:专门负责监管AI的机构;出处和水印系统,从而帮助区分真实与生成的内容,跟踪数据泄漏;强大的认证系统;在AI造成伤害后,明确谁该承担责任……”。
暂停开发GPT 4之后的AI,这听上去是无稽之谈,却成为了科技圈对AI爆炸性发展真切的焦虑。技术的潘多拉宝盒一旦掀开,现在的人们开始担心再也无法合起来。
“我们必须扪心自问,”联名信上写道,“是否应该让机器用宣传和谎言充斥我们的信息渠道?是否应该让所有的工作都变得自动化?是否应该发展可能某一天会超越我们、淘汰我们、取代我们的人工智能?是否应该冒险失去对人类文明的控制?”
回到意大利禁用ChatGPT的事件中,曾在意大利生活8年的吴沈括表示,根据他对当地人信念的了解,出现这张禁令毫不奇怪。
“意大利有一句很流行的话,是说,以消灭人类为目标的人工智能,不应该被研发出来”。吴沈括分析说,在意大利人的判断当中,这个问题具有最高度的严重性,需要有强力的介入,强力的监管态度。
因此,意大利监管部门的做法,不能简单归结为“因噎废食”。
“当一个高强度的监管禁令提出之后,后续自然就伴随着一个高密度的游说过程”,吴沈括解释说,在这个游说过程中,监管意图将得到更多的实现,它会形成一个博弈的过程。最终,建构一个可持续的、各方受益的良性循环的生态。