闽公网安备 35020302035485号
堆代码讯 在人工智能快速渗透互联网服务的当下,大多数搜索引擎已默认向用户展示AI生成的内容概览,这种旨在提升搜索效率的模式,却因准确性存疑、网页点击流量流失等问题引发了广泛争议。即便作为行业巨头的谷歌,其AI概览虽经测试显示多数情况下准确可靠,但受每日海量搜索请求的影响,仍难以避免数百万条错误回复的产生,将AI搜索的信任危机推向台前。
据《纽约时报》报道,相关测试数据揭示了一个令人担忧的事实:谷歌AI搜索生成的概览中,约每10条就有1条包含虚假信息。结合该搜索引擎每年约5万亿次的搜索量推算,用户每小时可能接触到超过5700万条错误答案,换算下来相当于每分钟近100万条,错误信息的传播规模触目惊心。这些关键数据来自人工智能初创公司Oumi,《纽约时报》曾委托该公司采用通用生成式AI评测标准SimpleQA,对谷歌大模型Gemini的准确性进行专项评估。在对4326条谷歌搜索结果进行系统分析后,Oumi得出结论:去年10月,谷歌AI助手Gemini 2代生成的内容概览准确率为85%;到今年2月,Gemini 3代完成升级后,这一准确率已提升至91%,显示出谷歌在AI技术优化上的努力。
然而,这份看似喜人的进步背后仍暗藏隐忧。Oumi在评估过程中,仅能依靠AI工具对海量搜索结果进行批量检测,这一评估方式本身就可能引入新的误差,影响数据的绝对准确性。此外,谷歌AI搜索还存在一个奇特的现象:即便在数秒内重复搜索同一关键词,系统有时也会生成截然不同的AI概览,这不仅增加了评估难度,也让用户对搜索结果的稳定性产生质疑。
针对Oumi的测试结果,谷歌方面给出了不同的回应。该公司一位发言人表示,Oumi的测试存在明显缺陷,认为其测试方式无法反映真实的用户搜索行为,不能客观衡量Gemini模型的实际表现。与此同时,谷歌披露的内部测试数据显示,当Gemini 3独立于谷歌搜索系统运行时,出现内容虚构(即AI“幻觉”)的概率高达28%,这一数据也从侧面印证了AI技术的不完善。
除了准确性问题,信息来源的可靠性更是谷歌AI概览面临的另一大难题。为了增强AI概览的可信度,谷歌试图通过关联相关链接为内容提供支撑,但这些链接往往无法有效佐证Gemini给出的结论——无论该结论本身是否准确。这种“内容与来源脱节”的现象在实际使用中十分普遍:有时错误的AI概览下方,紧接着就是包含正确信息的链接;有时准确的概览,引用的却是存在错误信息的来源;还有些情况下,关联页面与AI概览内容毫无关联。值得注意的是,今年2月Gemini完成版本更新后,AI概览与其引用来源的不符率出现大幅上升,从Gemini 2代时期的37%飙升至Gemini 3代的56%,问题愈发突出。
更令人担忧的是,研究人员发现谷歌AI概览极易被人为操纵。英国广播公司(BBC)的一名记者曾做过一项实验:故意发布一篇包含虚假信息的博客文章,结果次日便发现谷歌在搜索结果的AI概览中,完整复述了这些不实内容。这一现象警示我们,AI概览可能成为虚假信息传播的助推器,带来潜在的舆论风险。
事实上,谷歌及其他主流人工智能企业,早已在服务细则中隐晦地承认了当前AI技术与事实之间的脆弱关联。微软在其服务条款中明确写明,AI工具Copilot仅用于娱乐用途,不可作为重要决策的依据;谷歌在AI概览界面会主动提示用户,需对生成内容进行二次核实;xAI也公开坦言,其模型存在出现内容虚构的可能性。这些细则中的“免责声明”,既是企业规避风险的手段,也折射出整个AI行业在追求技术便捷性与内容准确性之间的两难。