我们中的许多人都轻率地使用 ChatGPT,但它会带来您需要了解的严重安全和隐私问题。

2023 年 1 月,即推出仅两个月后,ChatGPT(生成式预训练转换器)成为有史以来增长最快的应用程序,拥有超过 1 亿用户。

OpenAI 的高级聊天机器人可能重新激发了公众对人工智能的兴趣,但很少有人认真考虑与该产品相关的潜在安全风险。

ChatGPT:安全威胁和问题

支撑 ChatGPT 和其他聊天机器人的技术可能相似,但 ChatGPT 属于自己的一类。如果你打算将它用作一种个人助理,这是个好消息,但如果你考虑到威胁行为者也在使用它,那就令人担忧了。

网络罪犯可以利用 ChatGPT 编写恶意软件、建立诈骗网站、生成网络钓鱼电子邮件、制造假新闻等。正因为如此,正如Bleeping Computer在分析中所说,ChatGPT 带来的网络安全风险可能大于收益。

与此同时,人们严重担心 ChatGPT 本身存在某些未解决的漏洞。例如,2023 年 3 月,出现了一些用户能够查看他人对话标题的报告。正如The Verge当时报道的那样,OpenAI 首席执行官 Sam Altman 解释说,“开源库中的一个错误”导致了这个问题。

这只是强调了限制您与 ChatGPT 共享的内容的重要性,ChatGPT 默认情况下会收集数量惊人的数据。科技巨头三星以惨痛的方式了解到这一点,当时一群一直使用聊天机器人作为助手的员工不小心向其泄露了机密信息。

ChatGPT 是否威胁到您的隐私?

安全和隐私不是一回事,但它们密切相关并且经常交叉。如果 ChatGPT 是安全威胁,那么它也是对隐私的威胁,反之亦然。但这在更实际的方面意味着什么?ChatGPT 的安全和隐私政策是怎样的?

从互联网上搜集了数十亿个单词来创建 ChatGPT 的庞大数据库。该数据库处于持续扩展状态,因为 ChatGPT 存储用户共享的任何内容。总部位于美国的非营利组织Common Sense给 ChatGPT 的隐私评估分数为 61%,并指出聊天机器人会收集个人身份信息 (PII) 和其他敏感数据。大多数此类数据已存储或与某些第三方共享。

在任何情况下,您在使用 ChatGPT 时都应该小心,尤其是当您将其用于工作或处理敏感信息时。作为一般经验法则,您不应与机器人分享您不想让公众知道的内容。

解决与 ChatGPT 相关的安全风险

人工智能将在某个时候受到监管,但很难想象一个它不构成安全威胁的世界。与所有技术一样,它可以而且将会被滥用。

据Malwarebytes称,未来聊天机器人将成为搜索引擎、语音助手和社交网络不可或缺的一部分。他们将在各个行业发挥作用,从医疗保健和教育到金融和娱乐。

正如我们所知,这将从根本上改变安全性。但正如 Malwarebytes 还指出的那样,网络安全专业人员也可以使用 ChatGPT 和类似工具;例如寻找软件中的错误,或网络活动中的“可疑模式”。

提高认识是关键

从现在起五年或十年后,ChatGPT 能做什么?我们只能推测,但我们可以肯定的是人工智能不会消失。

随着更先进的聊天机器人的出现,整个行业都必须调整并学习如何负责任地使用它们。这包括已经被人工智能塑造的网络安全行业。提高对与 AI 相关的安全风险的认识是关键,这将有助于确保以合乎道德的方式开发和使用这些技术。