2025年生成式AI搜索用户体验定性研究报告(英文版) 99xcs.com

今天分享的是:2025年生成式AI搜索用户体验定性研究报告(英文版)

报告共计:37页

生成式AI搜索怎么用?英国用户调研:低风险图方便,高风险仍信传统搜索

当下,打开浏览器查询信息早已成为生活常态,但ChatGPT、谷歌AI概览等生成式AI搜索工具的兴起,正悄然改变着人们的搜索习惯。近日,市场研究机构YouGov受英国通信管理局(Ofcom)委托,对24名英国成年网民开展深度访谈,探究传统搜索与生成式AI搜索的用户体验差异。这份聚焦2025年搜索行为的报告,或许能帮我们理清当下选择搜索工具的核心逻辑。

谷歌仍是“首选”:传统搜索靠“熟悉感”站稳脚跟

在受访者的日常搜索中,谷歌几乎是“默认选项”——不管使用Chrome、火狐还是Edge浏览器,多数人都会把谷歌设为默认搜索工具,就连习惯用Edge的少数人,也会手动切换到谷歌。原因很直接:界面熟悉、操作顺手,且长期使用下来觉得“结果相关度高”。30岁以下的年轻人更是几乎“非谷歌不用”,仅有极少数人因浏览器默认设置使用必应,或因“广告少”选择DuckDuckGo。

传统搜索的核心优势,在“高风险信息查询”中体现得尤为明显。当涉及健康(如焦虑管理技巧、饮食对健康的影响)、金融(如信用评分提升方法、股票投资入门)或新闻时事时,受访者会格外谨慎。他们不会随意点击陌生链接,而是优先选择已知的权威平台:查健康问题直奔英国国家医疗服务体系(NHS)官网,看金融知识参考“省钱专家”网站,刷新闻则倾向BBC等主流媒体。71岁的一位受访者就提到,“我会直接去劳埃德银行、国民西敏寺银行的官网查金融信息,这些平台 established(成熟可靠),用着放心”。

即便在低风险场景(如 hobbies、兴趣查询),部分人也会保持警惕。比如有人查“如何制作柠檬挞”时,会对比多个美食博客的配方,担心非官方来源的做法“不专业”。值得注意的是,大家对搜索结果中的“赞助内容”普遍冷淡,多数人认为“花钱上榜的内容是为了盈利,不一定贴合需求”,会直接跳过,只有遇到熟悉品牌的购物广告时,才会偶尔点开看看。

AI搜索“挑场景”:低风险图方便,高风险存顾虑

生成式AI搜索主要分两类:一类是AI摘要(如谷歌AI概览,嵌在传统搜索结果顶部),另一类是AI聊天机器人(如ChatGPT、Gemini、Perplexity)。它们在不同场景下的“受欢迎度”差异显著。

AI摘要因“省时”成为不少人的“初步筛选工具”。比如查“地中海饮食的优缺点”“健身手环的利弊”时,受访者觉得不用翻多页结果,就能快速掌握核心信息。但大家不会“照单全收”:如果摘要引用的来源不可靠(如维基百科),或内容与自己已知知识不符,就会直接忽略,转而查看传统搜索结果。有过AI摘要出错经历的人,甚至会手动关闭这个功能,“宁愿多花点时间翻链接,也不想被错误信息误导”。

AI聊天机器人则更适合“细节化需求”。比如查Excel公式报错原因、找2025年IMDb 9分以上的电影、学在英国种柑橘的方法,受访者觉得它回答详细、能追问,还能根据需求调整内容(如“把地中海饮食建议简化成3点”)。37岁的一位用户提到,“查数据类问题时,我更愿意用ChatGPT,不用翻一堆网站,很快就能拿到关键信息”。

但一涉及健康、金融等“高风险”领域,AI聊天机器人的“信任短板”就会暴露。有人发现AI给的健康建议和NHS官网不符,有人查股票投资时,发现AI引用的“权威来源”根本不存在,还有人对比后发现,AI给出的新闻标题和传统搜索结果差异明显。因此,哪怕AI提供了来源,大家也会去谷歌验证;对完全陌生的来源,直接选择“不信”。

AI信任“三痛点”:准确、透明、隐私成“心结”

尽管AI搜索在便利性上有优势,但受访者的顾虑集中在三个方面,成为阻碍其普及的关键。

首先是“准确性存疑”。不少人有过“踩坑”经历:24岁的一位用户提到,“用Copilot查资料时,它给的链接点不开,后来才发现是编造的,导致论文里出现错误”;还有人故意用自己熟悉的领域测试AI,结果发现“同一个问题,两次回答不一样”,直接动摇了信任。

其次是“透明度不足”。多数人不知道AI的信息从哪来——ChatGPT很少标注来源,就算标了,也难以判断来源是否权威;有人担心AI的数据“偏西方”,对其他地区的信息覆盖不全,“查东南亚旅游攻略时,AI给的建议全是欧美游客的视角,不适合我”。

最后是“隐私焦虑”。不少人怕自己的搜索内容被收集利用,71岁的一位受访者直言,“每次用AI搜索,都觉得有人在记录我的查询,这种感觉很不舒服”;还有人担心“输入的个人需求(如健康状况)会被泄露,用于广告推送甚至其他用途”。

更关键的是,大家对AI的“安全机制”几乎不了解。多数人不知道AI是否有过滤有害内容的功能,但都希望能有——比如保护孩子不接触不良信息,防止有人用AI生成深度伪造内容或非法信息。少数人知道账号有“家长控制”,但也说不清具体怎么设置,“只知道有这个功能,不知道怎么用它保护孩子”。

未来可期但需“改进”:AI搜索想普及,得跨“信任关”

对于AI搜索的未来,受访者大多持“谨慎乐观”态度,认为随着技术发展,用的人会越来越多,但前提是解决“信任问题”。

大家期待的第一个改进是“技术优化”。希望AI能减少错误,标注来源更清晰——比如像Perplexity那样,直接列出回答引用的每个链接,方便用户验证;同时,针对高风险领域,能优先引用权威来源(如NHS、政府官网),减少“误导”可能。

第二个期待是“监管跟上”。受访者普遍认为,需要明确的规则规范AI的数据使用,解决伦理问题(比如AI用艺术家作品训练是否侵权),还要加强对“AI生成假信息”的管控。43岁的一位用户提到,“AI确实能省时间,但必须有监管,不然大家很容易被骗,尤其是对不熟悉AI的人”。

还有人提到“普及教育”的重要性:17岁的一位受访者表示,“如果学校能教我们怎么正确用AI,怎么辨别信息真假,我可能会更敢用”;也有人希望厂商能“把安全机制讲清楚”,比如“哪些内容会被过滤,怎么设置隐私保护”,让用户“明明白白使用”。

当下的搜索市场,正处于“传统工具为主、AI工具补充”的阶段。用户选哪种工具,核心看“场景风险”——低风险场景图方便用AI,高风险场景求稳妥选传统搜索。而生成式AI搜索要想真正“走进日常”,光有便利性还不够,解决准确性、透明度和隐私问题,建立用户信任,才是关键。这份来自英国的研究,或许也能帮我们思考:在AI搜索兴起的当下,如何更理性地选择工具,既享受便利,又避免踩坑。

以下为报告节选内容

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

久久小常识(www.99xcs.com)™

报告共计: 37页

中小未来圈,你需要的资料,我这里都有!