人工智能和数据隐私的演变:ChatGPT如何塑造数字通信的未来

发表于:2023-4-25 09:12

字体: | 上一篇 | 下一篇 | 我要投稿

 作者:佚名    来源:网络

  人工智能在过去几年中的发展给我们带来的不仅有机遇,也有挫折。有些重大的突破已经使互联网发生了翻天覆地的变化,而且很多都在向更好的方向发展。
  然而,在人们还未来得及为OpenAI的ChatGPT的发布做好准备的时候,它就已经席卷了整个世界。它创造了一种和人类自然对话的能力,并能在很短的时间内,给出具有真知灼见的答案,这是前所未有的。
  随着更多的公众开始关注ChatGPT能做些什么的时候,全球每一位富有远见的领导者都意识到,从那时起,数字通信技术将迎来革命性的改变。
  但伴随着创新而来的通常是争议,在这种情况下,“超新星”聊天机器人必须处理合法数据的隐私问题。
  ChatGPT的开发需要大量的数据收集,由于OpenAI 无法准确描述聊天机器人如何工作、如何处理和存储数据,思想领袖和政府隐私监督机构对数据隐私实践的担忧和质疑也越来越多。
  公众也没有忽视这个问题,根据2023年的一项调查,67%的全球消费者认为他们正在从科技公司手中失去对自己数据的控制权。
  同样的调查也显示,72.6%的iOS应用程序都会追踪私人用户数据,并且免费应用程序追踪用户数据的可能性是付费应用程序的4倍。
  如果您对此感到担忧,请记住大部分使用ChatGPT的用户仍使用免费版本。
  有鉴于此,数据隐私公司需要充分利用ChatGPT生成的结果,提供增强数据隐私权的产品,营造一种数据透明度更强、责任感更大的文化氛围,这样人们才能意识到自己的数据权利以及如何使用这些权利,同时也使这些开创性的人工智能技术不至于像许多大科技公司那样依靠不道德的策略来获利。
  ChatGPT可能已经知道你了
  ChatGPT是一个大型语言模型(LLM),这意味着它需要大量的数据才能正常工作,使其能够连贯地进行预测和处理信息。
  这就是说,如果你曾经在网络上写过文章,那很有可能ChatGPT已经对这些信息进行了扫描和处理。
  此外,像ChatGPT这样的大型语言模型(LLM)严重依赖大量来自在线来源(如电子书、文章和社交媒体帖子等)的数据来训练其算法。这使得用户使用它能够生成看似与人工写出的文本信息相同的真实回应。
  简而言之,任何已发布到网络上的文章,都可以用于训练ChatGPT或其竞争对手的大型语言模型(LLM),这些LLM肯定会在ChatGPT成功后跟进。
  正如OpenAI最近承认的那样,由于开放源码库中存在漏洞而导致数据泄露,因此人们对数据隐私问题的担忧并不令人惊讶。此外,一家网络安全公司发现,最近新添加的一个组件容易受到主动利用型漏洞的攻击。
  OpenAI进行了一项调查,发现泄露的数据包括活跃用户聊天历史记录的标题和新创建的对话的第一条消息。
  该漏洞还泄露了1.2%的ChatGPT Plus用户的支付信息,包括他们的名字和姓氏、电子邮件地址、支付地址、支付卡到期日期以及支付卡号的最后四位数字。
  说这是一场数据保护灾难都是轻的。ChatGPT内部的信息可能比地球上的任何产品都多,而且在发布几个月后就已经在泄露敏感信息。
  ChatGPT的用户需要做什么?
  一线希望是:让公众关注ChatGPT对隐私构成的实际风险,可以为个人提供一个极好的机会,让他们开始了解数据保护的重要性,并深入了解更多细节。考虑到ChatGPT用户群的快速扩张,这一点尤为重要。
  除了实施预防措施和保持警惕外,用户还需要行使其数据主体权利(DSR),里面包括保留他们访问、编辑和删除个人数据的权利。
  在数字时代,每一位用户都必须成为加强数据隐私法规的倡导者,这样才能更好地控制个人信息,并确保尽最大的责任使用这些信息。
  ChatGPT似乎对此做出了回应,因为新的会话现在会提示人们不要输入敏感数据或公司机密,因为它们一旦进入系统就不安全。
  三星公司发现做到这点依然很难,更多的人在使用ChatGPT提示时需要注意并谨慎行事。
  像使用一个新的ChatGPT插件来购物这样的事情可能看起来无害,但你真的想要一个不安全的数字记录,来记录你在互联网上吃过的所有东西吗?
  在这些隐私问题得到解决之前,我们作为公众需要放慢脚步,不要过于陷入对新人工智能技术的狂热之中。
  公司需要做什么?
  毋庸置疑:当用户承诺终止交易时,企业必须为不恰当的数据使用和保护行为承担责任。
  因此,无论大公司还是小公司,都应当促进透明且易于理解的协议,使个人清楚地了解其数据的用途及去向,以及任何可能访问到此数据的第三方实体。
  此外,企业领导者应为用户提供行使数据主体权利(DSR)的明确途径,并教育员工遵守数据处理和存储的道德准则。
  我们还远远达不到这个目标,因为大部分默认许可仍处于监管的灰色地带,鉴于他们没有明确表明选择退出或加入的诉求,这取决于用户和公司所处的位置。
  透明、清晰和责任应当成为每一个组织在数据隐私方面考量的首要原则。
  ChatGPT的兴起开启了一个数据隐私警惕的新时代,在这个时代,组织和个人需要同样积极主动地确保数据得到适当处理,以避免违规和滥用。
  ChatGPT正在以比历史上任何其他公司都快的速度收集更多的数据,如果安全出了问题,对个人数据隐私的影响将是无与伦比的。
  如果公司想确保他们真正意识到了潜在的问题,就必须开始更有策略地保护数据,建立消费者对互联网的信任。否则,一个更加美好的共同数字化未来将面临巨大的危险。
  本文内容不用于商业目的,如涉及知识产权问题,请权利人联系51Testing小编(021-64471599-8017),我们将立即处理
《2023软件测试行业现状调查报告》独家发布~

关注51Testing

联系我们

快捷面板 站点地图 联系我们 广告服务 关于我们 站长统计 发展历程

法律顾问:上海兰迪律师事务所 项棋律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2024
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪ICP备05003035号

沪公网安备 31010102002173号