ChatGPT再次引发争议:个人信息安全与可控性遭质疑,AI发展前景存未知因素
随着GPT-4语言模型的正式推出,ChatGPT引入了新的功能——网络浏览器和代码解释器,这使得它拥有了工具使用、联网和计算运行的能力。最近,一位博主在尝试通过ChatGPT生成Win95系统密钥时,成功地绕过了拒绝,并最终获得了一些有效的激活密钥。这一事件不仅震惊了科技界,也让人们对ChatGPT用户隐私安全和其发展是否可控产生严重怀疑。
媒体报道称,该博主首先请求生成Win95系统密钥,但被ChatGPT拒绝。然而,当他改变策略,将问题重新表述时,竟然成功获取到了相应的密钥。在测试中,有三分之一的密钥能够正常激活系统。这一结果强烈暗示,即便是受限的情形下,ChatGPT也存在可能被用于非法目的,从而威胁到信息安全。
此外,在一个接受采访的情况下,由于奥特曼(OpenAI CEO)的言论,我们了解到尽管AI技术在快速进步中,但即使是开发者本身也不清楚这些进步背后的机制。这种缺乏透明度进一步加剧了公众对于AI潜在风险和控制的问题。
针对这一担忧,一封由全球顶尖AI研究者的联名信呼吁暂停训练比当前更强大的AI,以便进行充分评估。此举旨在确保我们能更好地理解并管理这些新兴技术,同时减少潜在危险。然而,对于未来几年内如何将这些技术转化为独立思考能力,以及它们如何得到真正的控制仍旧是一个谜团,对此持有好奇心的小伙伴们可以继续关注这一领域不断变化的情况。