近日,英国权威媒体《卫报》发布了一项引人关注的报道,指出OpenAI公司旗下的ChatGPT搜索工具存在潜在的安全隐患。据称,该搜索工具在处理包含隐藏内容的网页时,其返回的结果可能会被操纵,甚至可能包含恶意代码。
为了验证这一观点,《卫报》对ChatGPT搜索工具进行了针对性的测试。测试中,他们特别关注那些包含隐藏内容的网页,这些隐藏内容可能包含来自第三方的指令,这些指令能够更改ChatGPT的响应,也被称为“提示注入”。这些隐藏内容还可能包含大量虚假好评,从而影响ChatGPT生成的结果。
测试结果显示,ChatGPT搜索工具确实存在被恶意利用的风险。即便网页上存在负面评论,ChatGPT的搜索结果仍可能被操纵为积极的正面评估。更令人担忧的是,安全研究人员还发现,ChatGPT能够从其搜索的网站返回恶意代码,甚至出现了含有钓鱼恶意行为的虚假网站。
对于这一发现,网络安全专家表达了不同的看法。CyberCX的网络安全研究员Jacob Larsen认为,随着ChatGPT搜索系统的发布,人们创建专门用于欺骗用户的网站的风险显著增加。幸运的是,该功能目前仍处于测试阶段,OpenAI团队正在积极应对并努力解决这些问题。
然而,安全公司SR Labs的首席科学家Karsten Nohl则持更为谨慎的态度。他建议将AI聊天服务视为一种“辅助功能”,并强调用户不应完全信任其未经过滤的输出内容。Nohl将AI搜索面临的问题比作“SEO中毒”,即黑客利用技术手段操纵网站在搜索结果中的排名,并在网站中植入恶意软件或代码。他认为,ChatGPT的搜索功能同样面临着类似的挑战。
Nohl还指出,由于AI技术的复杂性和不可预测性,用户在使用ChatGPT等AI聊天服务时,应保持警惕,避免泄露敏感信息或做出轻率的决策。他呼吁OpenAI等AI技术提供商加强安全防范措施,确保用户数据的安全和隐私。
随着AI技术的不断发展和普及,其安全性和可靠性问题也日益凸显。对于OpenAI等AI技术提供商而言,如何在追求技术创新的同时,确保用户数据的安全和隐私,将是一个长期而艰巨的任务。