ChatGPT一周“紧急刹车”:算力不足、隐私数据泄露

在 2023年04月10日 发布于 ChatGPT资讯

即使距离最早发布已经过去了五个月,但ChatGPT至今仍然是最炙手可热的话题之一:作为黄仁勋口中的「AI的 iPhone时刻」、周鸿祎口中「领先国内2-3年」的ChatGPT以及背后的OpenAI,被普遍认为是本次生成式人工智能浪潮中的最大赢家。

但近期在短短一周之内,ChatGPT就接连遭遇两次重大事件,分别是ChatGPT付费版本ChatGPT Plus暂停付费,以及意大利监管机构禁止ChatGPT使用。

首先是第一个问题,虽然截至目前,ChatGPT Plus订阅已经正常恢复,但这件事所折射出的,是OpenAI对于当下 AI 开发阶段的重点所在:对于OpenAI来说,来自ChatGPT Plus订阅用户每月20美元的订阅费,比起微软近期向OpenAI投资的一百亿美元来讲更是不值一提。

相比赚眼前用户的这些蝇头小利,或许将在今年年内发布、仍需大量算力培育的GPT-5,才是当下OpenAI的重点。

对于OpenAI来讲,ChatGPT Plus本质上更像是一种用付费,来快速筛选用户的一种方式:付费用户能获得优先使用权,同时也代表着非付费用户只能排队,面对GPT-4带来的各种新功能被拒之门外。也会在新功能发布等高负载时段拒绝免费用户的访问请求,优先确保ChatGPT Plus的正常访问。

只是可能连OpenAI都没能预计到,如今的ChatGPT Plus也已经产生了越来越多的滥用问题,导致OpenAI引以为傲的算力资源也出现了缺口。以至于OpenAI都不得不在4月5日关闭ChatGPT Plus的付费渠道,给出的理由就是「需求量过大」。

此前在今年三月,ChatGPT已经出现过数次大范围宕机事件,虽然原因并不全是「算力不足」,但却侧面反应出目前供给普通用户的ChatGPT服务其实并不稳定。尽管OpenAI从来没有披露过具体的付费用户数据,但从近一个月出现的各种状况来看,OpenAI的算力已经无法完善支持ChatGPT的用户数量进一步增长。

但眼下ChatGPT所要面临的问题显然不只是算力不足导致的服务问题:在最初的震撼逐渐平息之后,伴随ChatGPT一同诞生的数据隐私问题也逐渐被更多人所察觉:所谓的生成式人工智能,目前最常见的使用场景在于将网络中的相关信息快速聚合并有机总结。因此取代搜索引擎是目前被讨论最多的应用场景之一,更一直让Google紧张不已。

但在关键的「信息聚合」中,自然也诞生了各种信息所涉及到的隐私问题,尤其是OpenAI已经明确表示用户的所有回复内容都有成为ChatGPT训练语料的可能性,同时建议用户不要在对话中分享个人信息,但在许多用户眼里,ChatGPT似乎已经成为了一个可以咨询任何问题的老师,因此失去防备,将自己乃至工作上的各种隐私数据和盘托出,交予ChatGPT寻求帮助。

据《Economist》报导,近期三星半导体员工疑似因使用ChatGPT,导致在三起不同事件中泄露公司机密。调查原因皆因员工将公司机密资讯输入ChatGPT而导致。

在三起信息泄露事件发生之后,三星在三月发布了ChatGPT使用禁令,并开启内部调查,由于用户与ChatGPT的对话都会上传至ChatGPT数据库,因此很多员工在将自己的问题输入ChatGPT时,实际上就已经产生了数据泄露。

报道中提到,外泄的信息包括半导体设备量测资料库、生产设备相关软件,以及一份内部会议语音转录的文字纪录摘要。甚至还出现了经典的「ChatGPT改代码」:报导称一名软件工程师在开发中将整份程式码复制到ChatGPT中修复Bug。

3月31日,意大利当地数据监管机构——个人数据保护局宣布,将暂时禁止意大利境内用户访问ChatGPT,并借此审查ChatGPT存在的「非法收集用户数据」的证据。成为迄今为止第一个官方开出对生成式人工智能禁令的国家:当地用户很快就发现,所有从意大利境内访问ChatGPT的请求都已经被阻断。

虽然OpenAI创始人Sam Altman对此表示相当无辜,发推表示「我们遵守了所有隐私法规」言下之意表示「ChatGPT没做错什么」,同时表示期待ChatGPT重新在意大利开放访问;但Twitter上也有从事数据安全领域的专家提醒Altman:这并非只是结束,很可能是一波欧盟乃至世界各国禁止ChatGPT的开始。

在很多人看来,意大利监管机构的这一举动等同于因噎废食,甚至被许多海外ChatGPT用户被认为是试图阻挡AI发展大潮的绝望之举。但世界各地的数据监管机构确实已经蠢蠢欲动,越来越多国家的监管部门注意到其中的问题——只是此时终于有人打响了对人工智能隐私数据监管的「第一枪」。

据路透社报道,包括法国、爱尔兰、德国等地的监管机构已经在与意大利个人数据保护局进行接触,以获得更多ChatGPT泄露用户个人数据的证据,或许为推动当地版本的ChatGPT禁制令做准备。此前曾令各大科技巨头多次吃亏的通用数据保护条例(GDPR),同样也可以适用于迅速兴起的大模型人工智能公司。

在ChatGPT在意大利被禁止访问一周之后的4月6日凌晨,OpenAI发布了一份博客文章——在这篇文章中,OpenAI虽然没有正面回应外界对于ChatGPT安全性的质疑,但几乎全篇都在阐述OpenAI如何确保用户数据被安全地使用,以及改进保障措施的努力。

但这并没能回避生成式人工智能原理上与使用用户数据的直接冲突:作为数据隐私保护的最前线,欧盟的行动很大程度上代表了监管机构对于生成式人工智能对于用户数据被滥用的担忧,而意大利的行动更像是一次对OpenAI的测试:意大利个人数据保护局给了OpenAI 20天的时间,要求在此期限内解决用户数据被滥用的问题。

因此OpenAI的这篇博客,很大程度上也是代表人工智能研发机构,在面向监管部门「喊话」:在数据保护层面上,技术发展与政府监管之间需要新的「边界」,来解决生成式人工智能在利用个人信息训练下一代产品时伴随而来诞生的隐私问题。

在OpenAI发布的公告中:关于法规的看法,其中有这样一句话:

(ChatGPT)在现实中越来越多地运用,不仅促使着法规逐渐完善,同时也仍然需要允许技术带来许多有益用途。

用户隐私数据在伴随技术发展的这一过程中,注定要经历很长一段时间的互相博弈,才能获得逐渐完善的法规。但对于ChatGPT来讲,如今已经驶过最受瞩目的发展阶段,伴随而来的各种现实问题,对于后来者来讲,或许也会成为各种转折的契机。

文章版权归作者所有,未经允许请勿转载。
ChatGPT是OpenAI基于GPT-3.5架构训练的自然语言处理模型,能够生成文本、回答问题、进行闲聊等,具备强大的智能水平。ChatGPT已被广泛应用于智能客服、智能写作、智能翻译等领域,是自然语言处理领域的重要工具之一。
2热度
0链接
14文章

相关资讯